OpenAI、Responses APIにcontainer pool追加 hosted shellとcode interpreterを高速化
Original: Agent workflows got even faster. You can spin up containers for skills, shell and code interpreter about 10x faster. We added a container pool to the Responses API, so requests can reuse warm infrastructure instead of creating a full container creation each session. developers.openai.com/api/docs/guide… View original →
XでOpenAI Developersが発表した内容
2026年3月21日、OpenAI Developersはagent workflowがさらに高速になったと案内した。中心にあるのはResponses APIへ追加されたcontainer poolで、skills、hosted shell、code interpreter向けの実行環境をおよそ10倍速く立ち上げられるようになったという説明だ。セッションごとに新しい環境を作り直すのではなく、warm infrastructureを再利用する方向へ変えた点が大きい。
更新されたhosted shellドキュメントが示すもの
リンク先のOpenAIドキュメントは、この変更をhosted shellガイドの中で具体化している。リクエスト時にcontainer_autoを使えばOpenAIがコンテナを自動で準備し、後続の呼び出しではcontainer_referenceによって稼働中の環境を再利用できる。さらにhosted shellはOpenAI-hosted containers上で動作し、Code Interpreterと同じlifecycleを持つと記されている。
- コンテナはあくまでephemeralであり、永続データは外部システムへ保存する必要がある。
- コンテナが有効な間は生成したファイルやartifactを再利用・取得できるため、multi-step workflowに向く。
- OpenAIは、hosted shellコンテナが20分間非アクティブになると失効し、その後はデータを復旧できないと説明している。
なぜ重要か
shell実行や一時的な実行環境を必要とするagentでは、container cold startが体感遅延の大きな要因になりやすい。warm containerを再利用できれば、agentは環境準備を待つ時間を減らし、ファイル読み込み、コマンド実行、ツール反復など本来の仕事に早く入れる。短いターンを何度も回すworkflowほど効果は積み上がる。
同時にこれは、Responses APIが単なるテキスト生成インターフェースから、モデル呼び出しと実行環境をまとめて扱う制御面へ広がっていることも示している。もっともOpenAIの文書が強調する通り、hosted containerは便利な一時環境であって永続的な作業空間ではない。したがって本番運用では、速度の利点を享受しつつも、状態管理やartifact保管は引き続き外部ストレージと明示的なworkflow設計で支える必要がある。
Related Articles
OpenAIは2026年3月11日、Responses APIにshell toolとhosted container workspaceを組み合わせたcomputer environment設計を詳説した。これによりagentはファイル操作、データ処理、network accessをより安全かつ再現性高く扱えるようになると同社は説明している。
OpenAI Developersは2026年3月11日、Responses APIが長時間のagent workflowを処理するために使うhosted computer environmentの設計を説明した。中心となる要素はshell execution、hosted container、制御されたnetwork access、reusable skills、native compactionだ。
OpenAIDevsは2026年3月16日、Codexでsubagentsが利用可能になったと発表した。main contextを軽く保ちながらspecialized agentへ仕事を並列分散し、各threadを個別にsteerできるようにする更新で、公式ドキュメントにはPR reviewやCSV batch fan-outの運用例もすでに載っている。
Comments (0)
No comments yet. Be the first to comment!