OpenAI、より高速な coding・subagent向けにGPT-5.4 miniとnanoを投入
Original: Introducing GPT‑5.4 mini and nano View original →
OpenAIはMarch 17, 2026、small modelの新しい主力としてGPT-5.4 miniとGPT-5.4 nanoを公開した。発表文では、両モデルをGPT-5.4の強みをより高速かつ効率的な形に落とし込んだ "most capable small models yet" と説明している。狙いは明快で、high-volume workloadでは最大モデルの絶対性能よりも、低い latency で確実に tool を使いながら仕事を進められることが重要だという考え方を前面に出している。
今回の中心はGPT-5.4 miniだ。OpenAIによれば、このモデルはGPT-5 miniより2x以上高速で動作しながら、coding、reasoning、multimodal understanding、tool useを改善した。公開 benchmarkでも差は大きい。SWE-Bench Pro (Public)は54.4%でGPT-5 miniの45.7%を上回り、Terminal-Bench 2.0は60.0%対38.2%、Toolathlonは42.9%対26.9%、OSWorld-Verifiedは72.1%対42.0%だった。OpenAIはminiがSWE-Bench ProやOSWorld-Verifiedなどで大型のGPT-5.4に近い水準へ迫ると説明している。
agent systemの実務単位としてのmini
重要なのは性能向上だけではない。OpenAIはGPT-5.4 miniを、単なる安価な fallbackではなく、agent systemの中で実務を回すための operating unitとして位置づけている。発表ではCodexを例に、より大きなモデルがplanning、coordination、final judgmentを担当し、GPT-5.4 mini subagentsがcodebase search、large file review、supporting document processingのような狭い仕事を並列で処理する構成を示した。small modelを本格的な workflow componentとして使う方向がはっきり見える。
GPT-5.4 nanoは、その流れをさらにspeedとprice重視へ押し進めるモデルだ。OpenAIはnanoをclassification、data extraction、ranking、より単純なcoding subagents向けに推奨している。一方で、ただの軽量補助器としては扱っていない。公開値ではSWE-Bench Pro (Public) 52.4%、Toolathlon 35.5%、GPQA Diamond 82.8%を示しており、低コスト枠でありながら一定以上のcoding、tool use、reasoningを担う設計になっている。
提供範囲と価格
提供範囲にも役割分担が見える。GPT-5.4 miniはAPI、Codex、ChatGPTで即日利用でき、400k context windowを備える。APIではtextとimage input、tool use、function calling、web search、file search、computer use、skillsをサポートし、価格は1M input tokenあたり$0.75、1M output tokenあたり$4.50だ。CodexではGPT-5.4 quotaの30%だけを消費する。対してGPT-5.4 nanoはAPI専用で、1M input tokenあたり$0.20、1M output tokenあたり$1.25となる。
今回の発表は、OpenAIがmodel lineupを単純な大小比較ではなく、実際の product role ごとに設計し始めていることを示している。より大きなモデルが難しい判断を担い、小さなモデルがresponsive coding assistant、computer use system、subagent workloadをさばく。速度、価格、tool competenceを前提にmulti-model systemを組む流れが、より具体的な製品仕様として現れた形だ。
Related Articles
OpenAIは2026年3月17日、GPT-5.4 miniとnanoを公開した。両モデルはcoding、tool use、multimodal reasoning、高頻度subagent処理を意識した低遅延の小型モデルとして位置付けられている。
OpenAI DevelopersはXで、GPT-5.4 miniとnanoが開発者向けのGPT-5.4ファミリーに加わると発表した。OpenAIはminiをAPI・Codex・ChatGPT向けの高速なcoding・tool-useモデル、nanoをより軽いAPI処理向けの最安クラスの選択肢として位置付けている。
OpenAIはXで、GPT-5.4 miniをChatGPT・Codex・APIに投入し、GPT-5.4 nanoを低コストAPI向けの小型モデルとして展開すると発表した。2モデルはcoding、multimodal処理、agentの下位ワークフロー向けに最適化された高速な小型モデルとして位置付けられている。
Comments (0)
No comments yet. Be the first to comment!