OpenAI、GPT-5.5とCodexをAWSへ Managed AgentsもBedrockに
Original: OpenAI models, Codex, and Managed Agents come to AWS View original →
企業向けAIは、性能評価を通っても本番導入で失速しやすい。止まる場所はだいたい同じで、調達、権限管理、監査、運用の境界だ。OpenAIが2026年4月28日に公開したAWSとの提携拡大は、その詰まりを正面から崩しにきた。OpenAIは顧客に新しい運用レーンを作らせるのではなく、企業がすでに使っているAWSのセキュリティ、課金、統制の中へ主力機能を押し込んだ。
今回の柱は3つある。OpenAIモデルのAWS提供、CodexのAWS対応、そしてOpenAIを基盤にしたAmazon Bedrock Managed Agentsだ。目玉はGPT-5.5がAmazon Bedrockに入ることだろう。これで企業は、OpenAIの上位モデルを既存のAWS環境で扱える。規制産業や監査負荷の高い組織ほど意味が大きい。新しい契約や別系統の運用を増やさず、実験から本番までの距離を縮めやすくなるからだ。
Codexも脇役ではない。OpenAIはCodexの週間利用者が400万人を超えたと書いている。AWS版では、Codex CLI、デスクトップアプリ、Visual Studio Code拡張からBedrock API経由で利用できる。さらに、顧客データはAmazon Bedrockで処理され、条件を満たす顧客はCodex利用をAWSのクラウドコミットメントに充てられる。現場が嫌う「便利だが予算とガバナンスが分断された道具」を避ける設計だ。
今後の競争軸として最も重要なのはManaged Agentsかもしれない。OpenAIは、文脈維持、複数ステップの実行、ツール利用、業務プロセス内でのアクションを前提にした層として位置づける。つまり勝負はモデルAPIだけでは終わらない。エージェントをどのクラウドの中で動かし、誰が統制し、どのプラットフォームが長期的な運用習慣を握るのか。その主導権争いが、ここから一段と濃くなる。
Related Articles
これは単なる利用者数の話ではなく、流通戦略の話だ。OpenAIによると、Codexは4月初旬の週次300万人超から2週間で400万人超へ伸び、その需要をCodex Labsと7社のGSI体制で受け止める構えに入った。
ボトルネックがGPUからAPI層へ移ったため、OpenAIは転送方式そのものを変えた。Responses APIにWebSocketモードと接続スコープのキャッシュを入れたことで、agent workflowはend-to-endで最大40%改善し、GPT-5.3-Codex-Sparkは1,000 TPS、最大4,000 TPSのburstに届いたという。
重要なのは、エージェント開発の律速段階がモデル速度ではなく人間のコンテキスト切り替えにあるとOpenAIが明言した点だ。OpenAIによれば、Symphony導入後は一部チームでマージ済みPRが500%増え、開発者が無理なく扱えるCodexセッションはおおむね3〜5本だった。
Comments (0)
No comments yet. Be the first to comment!