OpenAIDevs、Codexに/fastモード導入 GPT-5.4を1.5倍高速化と発表
Original: Codex got more speed. With /fast mode, GPT-5.4 runs 1.5x faster with the same intelligence and reasoning. Move through coding tasks, iteration, and debugging while staying in flow. View original →
Codex向け速度アップデート
OpenAIDevsは2026年3月5日のX投稿で、Codexに/fastモードを追加したと発表した。投稿によれば、このモードではGPT-5.4が1.5倍高速に動作し、知能と推論品質は維持されるとしている。
狙いは開発ループの高速化だ。実装、修正、デバッグを繰り返す工程で待ち時間を減らし、作業フローを途切れさせないことを前面に出している。
投稿で示されたポイント
- /fast有効時のCodex内GPT-5.4速度を1.5倍と主張
- 推論能力を維持したまま高速化できるという説明
- 主用途はコーディング反復とデバッグ作業
開発現場での意味
エージェント支援開発では、短い推論とツール実行を何度も重ねるため、応答時間の改善が全体工数に大きく効く。単発ベンチマーク以上に、セッション全体のテンポ改善が重要になる。
品質を維持した高速化が再現されれば、チームは速度と信頼性のトレードオフを緩和できる。とくに長時間セッションや大規模修正タスクでの効果検証が実務上の焦点となる。
もっとも、実効性能はコードベースや運用条件で変わるため、自社ワークロードでの検証は不可欠である。
出典: OpenAIDevs X投稿
Related Articles
OpenAIが狙っているのは会話品質の小幅改善ではなく、長時間タスクの自動化だ。公開値ではGPT-5.5がTerminal-Bench 2.0で82.7%に達し、GPT-5.4を7.6ポイント上回り、Codexではより少ないトークンで動くとされる。
OpenAIが前に出したのは単なる性能更新ではない。Terminal-Bench 2.0で82.7%、SWE-Bench Proで58.6%を示しつつ、GPT-5.4級のレイテンシーを保つとして、長い作業を任せるコーディングエージェントの基準を押し上げた。
これは単なる利用者数の話ではなく、流通戦略の話だ。OpenAIによると、Codexは4月初旬の週次300万人超から2週間で400万人超へ伸び、その需要をCodex Labsと7社のGSI体制で受け止める構えに入った。
Comments (0)
No comments yet. Be the first to comment!