OpenAI, GPT-5.4 mini·nano로 소형 모델 스택 확대
Original: OpenAI introduces GPT-5.4 mini and nano View original →
OpenAI는 2026년 3월 17일 X를 통해 GPT-5.4 mini를 ChatGPT, Codex, API에 배포하고, GPT-5.4 nano를 새 라인업에서 가장 작고 가장 저렴한 API 전용 모델로 내놓는다고 밝혔다. 회사의 공식 소개 페이지에 따르면 GPT-5.4 mini는 coding, computer use, multimodal understanding, subagents에 맞춰 조정된 소형 모델이며 GPT-5 mini보다 2배 이상 빠르다.
이번 발표가 중요한 이유는 소형 모델이 점점 실제 agent 제품의 실행 계층이 되고 있기 때문이다. 개발팀은 tool calls, ranking, extraction, UI automation처럼 대량으로 반복되는 작업에서 frontier 모델보다 지연시간과 비용을 더 민감하게 본다. OpenAI는 낮은 가격대의 모델에서도 성능을 충분히 끌어올려 더 많은 단계를 agent loop 내부에 남길 수 있게 하려는 방향을 분명히 하고 있다.
OpenAI는 GPT-5.4 nano를 classification, data extraction, ranking, 가벼운 coding helper에 적합한 모델로 설명한다. 소개 페이지에서는 새 소형 모델 계층이 400,000-token context window를 유지하고, coding, reasoning, tool use, multimodal 작업 전반에서 개선을 공유한다고 밝혔다. 이전 mini 계층 대비 benchmark 향상도 함께 제시하면서, 이번 업데이트가 단순한 비용 인하가 아니라 소형 모델을 실제 software automation의 핵심 부품으로 끌어올리기 위한 것임을 강조했다.
제품 팀 입장에서는 이 지점이 핵심이다. 가장 어려운 reasoning은 여전히 대형 모델이 담당하겠지만, agent 시스템의 경제성은 빠르고 저렴한 모델이 얼마나 많은 행동을 처리하느냐에 달려 있다. OpenAI의 속도와 비용 주장이 실제 워크로드에서도 유지된다면 GPT-5.4 mini와 nano는 background workers, 앱 내 coding assistants, 높은 동시성을 요구하는 multi-step workflows의 기본 선택지가 될 수 있다.
이제 관건은 소형 모델이 유용한가가 아니라, 실제 production traffic의 더 큰 비중을 감당할 만큼 강해졌는가다. OpenAI의 이번 발표는 lower-end stack에서도 coding 품질, multimodal 지원, agent 지향성을 동시에 끌어올리겠다는 직접적인 신호다.
Related Articles
OpenAIDevs는 2026년 3월 16일 Codex에 subagents가 추가됐다고 밝혔다. 이 기능은 메인 context를 가볍게 유지하면서 specialized agent에 작업을 병렬 분산하고, 실행 중인 각 thread를 따로 steer할 수 있게 해주며, 공식 문서에는 PR review와 CSV batch fan-out 패턴까지 이미 정리돼 있다.
OpenAI는 2026년 3월 5일 GPT-5.4를 ChatGPT, API, Codex에 순차 배포한다고 발표했다. GPT-5.4는 GPT-5.3-Codex의 coding 역량을 본류 reasoning 모델에 통합하고, native computer use와 Codex의 experimental 1M context 지원을 내세운다.
OpenAI는 GPT-5.4 Thinking을 ChatGPT에, GPT-5.4를 API와 Codex에, GPT-5.4 Pro를 ChatGPT와 API에 배포하기 시작했다. reasoning, coding, native computer use를 최대 1M-token context와 함께 하나의 professional-work model로 묶었다는 점이 핵심이다.
Comments (0)
No comments yet. Be the first to comment!