OpenAI、GPT-5.4 miniとnanoで小型モデル群を拡充
Original: OpenAI introduces GPT-5.4 mini and nano View original →
OpenAIは2026年3月17日、XでGPT-5.4 miniをChatGPT、Codex、APIに投入し、GPT-5.4 nanoを新シリーズで最小かつ最安のAPI向けモデルとして提供すると発表した。公式の発表ページでは、GPT-5.4 miniをcoding、computer use、multimodal understanding、subagents向けに調整した小型モデルと説明し、GPT-5 miniより2倍超高速だとしている。
今回の発表が重要なのは、小型モデルが本番のagentシステムにおける実行レイヤーになりつつあるからだ。開発チームはtool calls、ranking、extraction、UI automationのような高頻度処理では、frontier modelの絶対性能よりも遅延とコストを重視する。OpenAIは低価格帯でも十分な能力を確保し、より多くのステップをagent loopの中で処理できるようにしたい考えを明確にした。
OpenAIはGPT-5.4 nanoをclassification、data extraction、ranking、軽量なcoding helper向けのモデルとしても打ち出している。発表ページでは、新しい小型モデル群が400,000-token context windowを維持しつつ、coding、reasoning、tool use、multimodal処理で改善していると説明した。旧mini世代とのbenchmark比較も提示し、今回の更新が単なる低価格化ではなく、小型モデルを実運用のsoftware automationで使える部品へ押し上げる狙いだと示している。
プロダクトチームにとっての意味は明確だ。最難関のreasoningは引き続き大型モデルが担うとしても、agentシステムの採算性は高速で安価なモデルがどれだけ多くの行動を処理できるかに左右される。OpenAIの速度とコストの主張が実運用でも再現されれば、GPT-5.4 miniとnanoはbackground workers、アプリ組み込み型coding assistants、高負荷のmulti-step workflowsで標準的な選択肢になり得る。
焦点はもはや小型モデルが役に立つかどうかではなく、本番trafficのより大きな割合を受け止められる強さに到達したかどうかだ。OpenAIの今回の投入は、stackの下位レイヤーでもcoding品質、multimodal対応、agent志向を同時に強化するという明確なシグナルだ。
Related Articles
OpenAIDevsは2026年3月16日、Codexでsubagentsが利用可能になったと発表した。main contextを軽く保ちながらspecialized agentへ仕事を並列分散し、各threadを個別にsteerできるようにする更新で、公式ドキュメントにはPR reviewやCSV batch fan-outの運用例もすでに載っている。
OpenAIは2026年3月5日、GPT-5.4をChatGPT、API、Codexで順次提供すると発表した。GPT-5.3-Codexのcoding能力を本流のreasoning modelに統合し、native computer useとCodexでのexperimental 1M context supportを打ち出している。
OpenAIはCodex Automationsを一般提供開始し、モデル選択、reasoning level、worktree/既存ブランチ実行、テンプレート再利用といった運用制御を追加した。Codexが単発の支援ツールから反復可能なバックグラウンド開発ワークフローへ広がっていることを示す更新だ。
Comments (0)
No comments yet. Be the first to comment!