OpenAIDevs, GPT-5.3-Codex의 Responses API 전면 제공 발표
Original: GPT-5.3-Codex is now available for all developers in the Responses API. View original →
X에서 나온 핵심 발표
OpenAIDevs는 2026-02-24 공식 X 게시물에서 "GPT-5.3-Codex is now available for all developers in the Responses API."라고 공지했다. 게시물은 GPT-5.3-Codex 모델 문서로 바로 연결되며, 단순 예고가 아니라 실제 배포 상태 업데이트임을 보여준다.
이번 업데이트는 일정 측면에서 의미가 크다. OpenAI의 초기 GPT-5.3-Codex 소개 글에서는 API 제공이 "안전하게 곧" 이뤄질 예정이라는 표현이 있었는데, 이번 X 발표로 "곧"이 "지금 사용 가능"으로 바뀌었다. 즉, Responses API 기준으로 개발팀이 바로 적용 가능한 상태가 됐다.
OpenAI가 설명한 GPT-5.3-Codex 맥락
OpenAI 소개 글은 GPT-5.3-Codex를 agentic coding 성능과 reasoning/professional knowledge 능력을 결합한 모델로 설명한다. 또한 GPT-5.2-Codex 대비 25% faster라고 밝히며, 여러 benchmark 수치도 함께 제시했다.
- SWE-Bench Pro (Public): 56.8%
- Terminal-Bench 2.0: 77.3%
- OSWorld-Verified: 64.7%
이 수치는 OpenAI가 공개한 vendor-reported 결과이지만, 왜 이번 API 전면 공개가 개발 실무에서 중요한지 판단하는 기준으로 활용할 수 있다.
개발팀 관점의 실질적 의미
Responses API를 이미 운영 중인 팀에게는 통합 경로가 단순해진다. 같은 API 표면에서 최신 모델을 바로 실험하고, 기존 coding-agent 조합과 비용 대비 성능을 비교하며, 배포 전 A/B 검증 속도를 높일 수 있다. 특히 모델 선택이 서비스 품질과 운영비를 동시에 좌우하는 환경에서는 "공식 문서 + 공식 X 공지" 조합 자체가 높은 신뢰 신호로 작동한다.
Primary sources: X post, model documentation, OpenAI launch write-up.
Related Articles
왜 중요한가: 코딩 모델 경쟁에서 공용 벤치마크만으로는 실제 체감 차이를 읽기 어려워졌기 때문이다. Cursor는 GPT-5.5가 자체 평가인 CursorBench에서 72.8%로 가장 높았고, 5월 2일까지 가격도 50% 낮춘다고 적었다.
병목이 GPU에서 API 계층으로 옮겨가자 OpenAI는 전송 방식을 손봤다. Responses API에 WebSocket 모드와 연결 범위 캐시를 넣으면서 agent workflow가 end-to-end 기준 최대 40% 빨라졌고, GPT-5.3-Codex-Spark는 1,000 TPS와 최대 4,000 TPS burst에 도달했다고 한다.
r/LocalLLaMA가 이 글을 끌어올린 이유는 “trust me bro”식 후기 안에 8-bit, 64k context, OpenCode, Android debugging이라는 실제 사용 조건이 들어 있었기 때문이다.
Comments (0)
No comments yet. Be the first to comment!