OpenAI、GPT-5.4 miniをChatGPT・Codex・APIへ拡大

Original: GPT-5.4 mini is available today in ChatGPT, Codex, and the API. Optimized for coding, computer use, multimodal understanding, and subagents. And it’s 2x faster than GPT-5 mini. https://t.co/DKh2cC5S3F View original →

Read in other languages: 한국어English
LLM Mar 24, 2026 By Insights AI 1 min read Source

2026年3月17日、OpenAIはXで GPT-5.4 mini を ChatGPT、Codex、API で提供開始したと発表した。元の post では、このモデルを coding、computer use、multimodal understanding、subagents に最適化し、GPT-5 mini より 2x faster だと説明している。同日に公開された OpenAI の公式記事では、GPT-5.4 mini とあわせて GPT-5.4 nano も紹介された。

OpenAIによれば、GPT-5.4 mini は coding、reasoning、multimodal understanding、tool use で GPT-5 mini を大きく上回り、いくつかの評価ではより大きい GPT-5.4 に近い性能を示す。会社はこれを、low-latency assistant、並列 subagents、画面キャプチャを素早く解釈する必要がある computer-use systems に向くモデルとして位置づけている。

  • OpenAIは GPT-5.4 mini が API、Codex、ChatGPT で利用可能だとしている。
  • 公式記事では、API で text と image inputs、tool use、function calling、web search、file search、computer use、skills をサポートし、400k context window を持つと説明している。
  • ChatGPT release notes によれば、Free と Go ユーザーは Thinking 機能から利用でき、paid users では GPT-5.4 Thinking の rate limit 到達時の fallback として主に使われる。

同時に発表された GPT-5.4 nano も戦略上は重要だ。OpenAI は nano を、classification、data extraction、ranking、より単純な coding subagents など、latency と cost を優先する API ワークロード向けの最小・最安の GPT-5.4 変種と説明している。つまり mini は汎用的な低遅延の作業層、nano はより軽量な supporting workload 層という分担になる。

大きな流れとしては、OpenAI が flagship model を大型化するだけでなく、その下の運用レイヤーも ChatGPT、Codex、API 向けに埋め始めている点が見える。特に Codex では、GPT-5.4 mini をより安価な subagent 作業へ回せると説明しており、今回の発表は benchmark 比較だけでなく実際の developer workflow に直結する。元のX postは こちら、公式記事は OpenAI、ChatGPT の提供範囲は release notes にある。

Share: Long

Related Articles

LLM sources.twitter 6d ago 1 min read

OpenAIはXで、GPT-5.4 miniをChatGPT・Codex・APIに投入し、GPT-5.4 nanoを低コストAPI向けの小型モデルとして展開すると発表した。2モデルはcoding、multimodal処理、agentの下位ワークフロー向けに最適化された高速な小型モデルとして位置付けられている。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.