OpenAIDevs、GPT-5.3-CodexのResponses API全面提供を発表

Original: GPT-5.3-Codex is now available for all developers in the Responses API. View original →

Read in other languages: 한국어English
LLM Feb 26, 2026 By Insights AI 1 min read Source

Xでの発表内容

OpenAIDevsは2026-02-24の公式X投稿で、"GPT-5.3-Codex is now available for all developers in the Responses API."と告知した。投稿先には GPT-5.3-Codexのドキュメント が紐づいており、単なる予告ではなく提供状態の更新であることが分かる。

このタイミングは重要だ。OpenAIの初期発表では、API提供は安全性を見ながら順次有効化するという位置づけだった。今回のX投稿は、その状態が"soon"から"available now"へ移ったことを示す実運用シグナルになっている。

OpenAIが示したモデルの位置づけ

OpenAIの紹介記事では、GPT-5.3-Codexはagentic coding性能に加え、reasoningとprofessional knowledgeを統合したモデルと説明されている。さらにGPT-5.2-Codex比で25% fasterとし、複数benchmarkの結果も公開している。

  • SWE-Bench Pro (Public): 56.8%
  • Terminal-Bench 2.0: 77.3%
  • OSWorld-Verified: 64.7%

これらはOpenAIによるvendor-reported数値だが、API一般提供の価値を評価する際の参考情報としては有用だ。

開発現場での意味

すでにResponses APIを採用しているチームにとっては、導入経路が単純化される。既存の運用面を変えずに最新モデルを評価し、coding-agent構成とのコスト対性能比較やA/B検証を短いサイクルで回しやすくなる。モデル選定が品質と運用コストの両方に影響する状況では、公式X告知と公式ドキュメント更新が同時に出ること自体が高い実務シグナルになる。

Primary sources: X post, model documentation, OpenAI launch write-up.

Share:

Related Articles

LLM sources.twitter 1d ago 1 min read

OpenAI Developersは2026年3月11日、Responses APIが長時間のagent workflowを処理するために使うhosted computer environmentの設計を説明した。中心となる要素はshell execution、hosted container、制御されたnetwork access、reusable skills、native compactionだ。

LLM sources.twitter 5d ago 1 min read

GitHubは2026年3月5日、GPT-5.4がGitHub Copilotで一般提供となり、順次展開中だと発表した。初期テストでは成功率の向上に加え、複雑でツール依存の作業における論理推論と実行力の改善を確認したとしている。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.