OpenAI、GPT-5.4を公開 ChatGPT・API・Codexへ展開
Original: Introducing GPT-5.4 View original →
OpenAIが出したもの
OpenAIは2026年3月5日、GPT-5.4を発表し、professional work向けで最も高性能かつ効率的なfrontier modelだと位置づけた。展開先は広く、ChatGPTでは GPT-5.4 Thinking、APIでは gpt-5.4 と gpt-5.4-pro、さらにCodexでも利用できる。
今回のポイントは、reasoning、coding、agentic workflowの改善を1つのモデルに統合したことだ。OpenAIはGPT-5.4を、nativeなstate-of-the-art computer useを備えた最初のgeneral-purpose modelとも説明している。これはagentが単に文章を返すだけでなく、browserやapp、internal toolを横断して作業する流れに直結する。
context windowも1 million tokensまで拡大した。大規模codebase、長いpolicy文書、multi-file debugging、広いretrieval pipelineを扱うチームにとって、作業を細かく分割する負担を下げる意味がある。
ベンチマークの含意
OpenAIはGPT-5.2比での改善も示した。GDPvalは70.9から83.0、Toolathlonは46.3から54.6、BrowseCompは65.8から82.7へ上昇した。OSWorld-VerifiedではGPT-5.4が75.0となり、OpenAIが示したhuman baseline 72.4を上回り、GPT-5.2の47.3も大きく超えた。
- Reasoning: 長期タスクや高文脈タスクでの強化。
- Coding: OpenAIはGPT-5.3-Codexのcoding改善をGPT-5.4へ持ち込んだとしている。
- Computer use: 単なるQAより、software操作を伴うagent stackに適した方向だ。
開発現場で重要なのは、chat、API、agent toolingの間の距離がさらに縮まったことだ。OpenAIはGPT-5.2を2026年6月5日までAPIのlegacy optionとして残すと述べており、既存運用を一気に切り替えず段階的に移行できる。
Related Articles
enterprise agentのボトルネックはmodel単体ではなく、その周辺の配線だった。OpenAIのCloudflare Agent Cloud連携は、edge runtime・state・storage・tool executionを一つの実運用ルートにまとめようとする動きだ。
重要なのは、エージェント開発の律速段階がモデル速度ではなく人間のコンテキスト切り替えにあるとOpenAIが明言した点だ。OpenAIによれば、Symphony導入後は一部チームでマージ済みPRが500%増え、開発者が無理なく扱えるCodexセッションはおおむね3〜5本だった。
今回の本質はモデル追加ではなく流通経路の変化だ。OpenAIはGPT-5.5、Codex、Bedrock Managed AgentsをAWSで限定プレビューに載せ、企業が既存の認証・統制・調達の枠内でfrontier AIを使う道を広げた。
Comments (0)
No comments yet. Be the first to comment!