OpenAI、GPT-5.4 mini・nanoを投入 coding・computer use・subagents向けに層を整理
Original: GPT-5.4 mini is available today in ChatGPT, Codex, and the API. Optimized for coding, computer use, multimodal understanding, and subagents. And it's 2x faster than GPT-5 mini. https://openai.com/index/introducing-gpt-5-4-mini-and-nano/ View original →
OpenAIがXで発表したこと
2026年3月17日、OpenAIはGPT-5.4 miniがChatGPT、Codex、APIで利用可能になったと発表した。X投稿では、このモデルをcoding、computer use、multimodal understanding、subagents向けに最適化したと説明し、さらにGPT-5 miniの2倍高速だと主張した。実運用ではmini tierがflagship以上に頻繁に呼ばれることが多いため、この更新は単なる廉価版の刷新ではない。
同日、OpenAIは続く投稿でGPT-5.4 nanoがAPIでも使えるようになったと付け加えた。二つの投稿を合わせると、OpenAIが明確な役割分担を作ろうとしていることが分かる。tool-heavyな実行にはmini、より大量で安価な処理にはnanoという構図である。
公式ドキュメントで確認できる点
OpenAIの開発者向け文書は、GPT-5.4 miniをcoding、computer use、subagents向けで最も強いminiモデルと説明している。文書には400,000-token context windowに加え、web search、file search、code interpreter、hosted shell、apply patch、skills、MCP、computer useのサポートが記載されている。つまりminiは、単なる低価格帯ではなく、agent workflowの主力実行層として設計されている。
GPT-5.4 nanoは、公式には最も安価なGPT-5.4クラスのモデルであり、classification、data extraction、ranking、sub-agents向けとされる。nanoも400,000-token context windowを維持するが、位置づけはcomputer-use中心ではなく、コストとスループットの最適化にある。
なぜ重要か
実務上の要点は、モデル単体の強さよりもワークロードの分離である。coding agentやbrowser operator、tool-richなcopilotはminiを主実行層に使い、routing、extraction、rankingのような反復的な下位処理はnanoへ落とすことで、構成を大きく変えずにコストを下げられる。
これは業界全体の流れとも一致する。agentシステムは、もはや一つの標準モデルで動かすのではなく、役割ごとに異なるモデル層を組み合わせて設計される段階に入っている。開発者にとっての焦点は、miniとnanoの組み合わせが本番環境でthroughput、tool reliability、コスト効率をどこまで改善するかだ。
出典: OpenAI X投稿 · GPT-5.4 nano追補投稿 · OpenAI GPT-5.4 mini docs · OpenAI GPT-5.4 nano docs
Related Articles
OpenAIDevsは2026年3月16日、Codexでsubagentsが利用可能になったと発表した。main contextを軽く保ちながらspecialized agentへ仕事を並列分散し、各threadを個別にsteerできるようにする更新で、公式ドキュメントにはPR reviewやCSV batch fan-outの運用例もすでに載っている。
GitHubは2026年3月15日のX投稿で、Copilot CLIの`/fleet`コマンドを使った保守作業の並列委任を訴求した。公式のCopilot CLI紹介でも、`/fleet`は同じtaskを複数sub-agentで並列実行し、1つの判断可能な結果へ収束させるworkflowとして説明されている。
OpenAI DevelopersはXで、GPT-5.4 miniとnanoが開発者向けのGPT-5.4ファミリーに加わると発表した。OpenAIはminiをAPI・Codex・ChatGPT向けの高速なcoding・tool-useモデル、nanoをより軽いAPI処理向けの最安クラスの選択肢として位置付けている。
Comments (0)
No comments yet. Be the first to comment!