OpenAI, GPT-5.4 공개... ChatGPT/API/Codex 전반에서 Tool use 성능 강화
Original: GPT-5.4 View original →
무엇이 발표됐나
OpenAI는 2026년 3월 5일 Introducing GPT-5.4를 통해 GPT-5.4를 ChatGPT(GPT-5.4 Thinking), API, Codex에 동시 배포했다. 동시에 고난도 워크로드용으로 GPT-5.4 Pro도 공개했다. 발표의 핵심은 모델 하나로 reasoning, coding, tool calling, long-horizon 작업을 더 안정적으로 처리하겠다는 방향이다.
해당 소식이 올라온 Hacker News 스레드는 크롤링 시점 기준 816점, 댓글 658개를 기록했다. 커뮤니티 반응을 보면, 단순 benchmark 숫자보다 실제 업무 자동화에서 얼마나 정확하게 끝까지 수행하는지가 주요 평가 기준으로 이동하고 있다.
주요 수치와 성능 신호
OpenAI가 공개한 비교 수치에 따르면 GPT-5.4는 GPT-5.2 대비 GDPval 83.0%(기존 70.9%), SWE-Bench Pro 57.7%(55.6%), OSWorld-Verified 75.0%(47.3%), Toolathlon 54.6%(46.3%), BrowseComp 82.7%(65.8%)를 기록했다. GPT-5.4 Pro는 BrowseComp 89.3%를 제시했다. 또한 내부 오류 신고 프롬프트 세트에서 개별 claim의 false 가능성을 33%, 전체 응답 오류 포함 확률을 18% 낮췄다고 밝혔다.
이 수치들은 공급사 자체 평가이지만, OpenAI가 어디에 역량을 집중하는지 보여준다. 즉, 전문 업무형 산출물, agent 실행 안정성, 웹 검색 결합 정확도에 우선순위를 둔 업데이트다.
Computer use, context, 비용 해석
기술적으로 가장 눈에 띄는 변화는 general-purpose 모델에서 native computer-use를 전면화한 점이다. OpenAI는 Codex/API에서 최대 1M-token context를 지원하고, tool search를 통해 대규모 tool 정의를 매 요청마다 모두 넣지 않아도 되도록 했다고 설명한다. 공개 예시에서는 MCP Atlas 작업에서 동일 정확도 기준 token 사용량이 47% 줄었다고 제시했다.
가격은 GPT-5.4 기준 입력 $2.50/M tokens, cached input $0.25/M, 출력 $15/M이며, GPT-5.4 Pro는 입력 $30/M, 출력 $180/M으로 안내됐다. 실무에서는 단가 자체보다 token 효율 개선과 재시도 감소가 총비용을 얼마나 낮추는지가 핵심 판단 포인트가 될 가능성이 크다.
Related Articles
GitHub는 2026년 3월 5일 GPT-5.4가 GitHub Copilot에서 일반 제공 단계로 전환돼 순차 배포 중이라고 밝혔다. 회사는 초기 테스트에서 더 높은 성공률과 복잡한 도구 의존형 작업에서의 향상된 논리 추론·실행 성능을 확인했다고 설명했다.
OpenAI는 GPT-5.4 Thinking과 Pro를 ChatGPT, API, Codex에 걸쳐 순차적으로 출시한다고 밝혔다. 회사는 GPT-5.4를 coding, computer use, tool search, 1M-token context를 갖춘 professional work용 frontier model로 포지셔닝했다.
OpenAI는 GPT-5.4 Thinking을 ChatGPT에, GPT-5.4를 API와 Codex에, GPT-5.4 Pro를 ChatGPT와 API에 배포하기 시작했다. reasoning, coding, native computer use를 최대 1M-token context와 함께 하나의 professional-work model로 묶었다는 점이 핵심이다.
Comments (0)
No comments yet. Be the first to comment!