OpenAI、GPT-5.4 miniとnanoを公開 coding・tool use・subagent向け小型モデルを拡充
Original: Introducing GPT-5.4 mini and nano View original →
OpenAIは3月17日、GPT-5.4 miniとGPT-5.4 nanoを発表し、GPT-5.4系を大規模モデル中心の構成から低遅延の小型モデルまで拡張した。会社の説明では、今回の新モデルはcoding assistant、delegated subagent、screenshotを読んで操作を判断するcomputer use、そしてリアルタイムmultimodal applicationのように、応答速度が製品体験を左右するワークロードを主対象にしている。
今回の中心はGPT-5.4 miniだ。OpenAIは、GPT-5 miniより2倍以上高速でありながら、coding、reasoning、multimodal understanding、tool useの各面で改善したと説明している。公開された数値では、GPT-5.4 miniはSWE-Bench Proで54.4%、OSWorld-Verifiedで72.1%、Toolathlonで42.9%を記録し、上位モデルGPT-5.4に近い結果を示した。GPT-5.4 nanoは同系統の最小・最安価モデルとして、classification、data extraction、ranking、より単純なcoding subagent向けに位置付けられている。
この発表で重要なのは、OpenAIが小型モデルを単なるfallbackとしてではなく、agent構成の実行レイヤーとして前面に出した点だ。source記事ではCodexの例として、より大きなモデルがplanningとfinal judgmentを担い、GPT-5.4 mini subagentがcodebase search、large-file review、supporting document processingといった狭いタスクを並列で処理する構成を紹介している。つまり今回のニュースはbenchmark改善だけでなく、multi-model workflowを前提とした設計思想も示している。
公開内容
- GPT-5.4 miniはAPI、Codex、ChatGPTで利用可能で、400k context windowを備える。
- text・image input、tool use、function calling、web search、file search、computer use、skillsをサポートするとOpenAIは説明している。
- 価格はGPT-5.4 miniが1M input tokenあたり$0.75、output tokenあたり$4.50。GPT-5.4 nanoはAPI専用で、それぞれ$0.20、$1.25だ。
要するにOpenAIは、小型モデルでもproduction codingやagent orchestrationで十分な役割を持てるというメッセージを強めている。CodexではGPT-5.4 miniがGPT-5.4 quotaの30%だけを使うという説明もあり、costとlatencyに敏感な開発ワークフローで採用が広がる可能性がある。
Related Articles
OpenAI DevelopersはXで、GPT-5.4 miniとnanoが開発者向けのGPT-5.4ファミリーに加わると発表した。OpenAIはminiをAPI・Codex・ChatGPT向けの高速なcoding・tool-useモデル、nanoをより軽いAPI処理向けの最安クラスの選択肢として位置付けている。
OpenAIはXで、GPT-5.4 miniをChatGPT・Codex・APIに投入し、GPT-5.4 nanoを低コストAPI向けの小型モデルとして展開すると発表した。2モデルはcoding、multimodal処理、agentの下位ワークフロー向けに最適化された高速な小型モデルとして位置付けられている。
OpenAIは2026年3月17日、GPT-5.4 miniをChatGPT、Codex、APIで利用可能にしたと発表した。投稿ではcoding、computer use、multimodal understanding、subagents向けに最適化し、GPT-5 miniの2倍の速度をうたっている。
Comments (0)
No comments yet. Be the first to comment!