OpenAIDevs、GPT-5.3-CodexのResponses API全面提供を発表
Original: GPT-5.3-Codex is now available for all developers in the Responses API. View original →
Xでの発表内容
OpenAIDevsは2026-02-24の公式X投稿で、"GPT-5.3-Codex is now available for all developers in the Responses API."と告知した。投稿先には GPT-5.3-Codexのドキュメント が紐づいており、単なる予告ではなく提供状態の更新であることが分かる。
このタイミングは重要だ。OpenAIの初期発表では、API提供は安全性を見ながら順次有効化するという位置づけだった。今回のX投稿は、その状態が"soon"から"available now"へ移ったことを示す実運用シグナルになっている。
OpenAIが示したモデルの位置づけ
OpenAIの紹介記事では、GPT-5.3-Codexはagentic coding性能に加え、reasoningとprofessional knowledgeを統合したモデルと説明されている。さらにGPT-5.2-Codex比で25% fasterとし、複数benchmarkの結果も公開している。
- SWE-Bench Pro (Public): 56.8%
- Terminal-Bench 2.0: 77.3%
- OSWorld-Verified: 64.7%
これらはOpenAIによるvendor-reported数値だが、API一般提供の価値を評価する際の参考情報としては有用だ。
開発現場での意味
すでにResponses APIを採用しているチームにとっては、導入経路が単純化される。既存の運用面を変えずに最新モデルを評価し、coding-agent構成とのコスト対性能比較やA/B検証を短いサイクルで回しやすくなる。モデル選定が品質と運用コストの両方に影響する状況では、公式X告知と公式ドキュメント更新が同時に出ること自体が高い実務シグナルになる。
Primary sources: X post, model documentation, OpenAI launch write-up.
Related Articles
なぜ重要か。最先端のコーディングモデルでは公開ベンチマークだけでは体感差が見えにくくなっているからだ。CursorはGPT-5.5が自社評価のCursorBenchで72.8%の首位に立ち、5月2日まで価格を50%下げると書いた。
ボトルネックがGPUからAPI層へ移ったため、OpenAIは転送方式そのものを変えた。Responses APIにWebSocketモードと接続スコープのキャッシュを入れたことで、agent workflowはend-to-endで最大40%改善し、GPT-5.3-Codex-Sparkは1,000 TPS、最大4,000 TPSのburstに届いたという。
r/LocalLLaMAがこの投稿を押し上げたのは、“trust me bro”な体験談の中に8-bit、64k context、OpenCode、Android debuggingという実使用条件が入っていたからだ。
Comments (0)
No comments yet. Be the first to comment!