Cloudflare、GPT-5.4とCodexを本番向けagent stackに直結
Original: Enterprises power agentic workflows in Cloudflare Agent Cloud with OpenAI View original →
この1年でenterprise AIチームが痛感したのは、model APIを呼べることとagent platformを持つことは別物だという点だ。難しいのはmodelの外側にある。codeをどこで動かし、stateをどこに置き、toolsをどの権限で呼び、実 trafficの下でどれだけ速く返せるかが差になる。4月13日のOpenAI記事は、Cloudflare Agent CloudでResponses APIとGPT-5.4を含むOpenAI modelsをfirst-partyで扱えるようにし、その配線コストをまとめて削ろうとしている。
ここで重要なのは、単なるintegration追加ではないことだ。OpenAIはCloudflareを、Workers、Durable Objects、R2、D1、そしてsandboxed executionがmodelの隣にあるruntimeとして押し出している。さらにCodex harnessがCloudflare Sandboxesに入り、coding agentが雑多なscriptやcredentialsへ散らばるのではなく、制御された環境で仕事できるようになる。agent demoは簡単でも、本番agentを難しくするのはstate、permissions、recoveryだ。
OpenAIは商用規模も強調した。business customersは1 million超、Codexのweekly active usersは3 million超という説明だ。加えて、code execution、web search、remote connectorsのようなfirst-party toolsの需要が増え、developerはagent workflowをもはや脇役の実験と見ていないと示した。つまりinferenceはstorage、queues、execution environmentsへ近づきつつあり、それがAI productの作り方そのものを変え始めている。
戦略の読み筋は明快だ。OpenAIはmodelとtoolsの層を握り、Cloudflareはそのagentが実際に働くruntimeになりたい。この組み合わせが機能すれば、これまでmodelとinfraを別々に縫い合わせていた企業は、code execution、state保持、edge servingをより少ない構成で進めやすくなる。次に見るべきなのは、これがearly adopters向けの近道で終わるのか、それともenterprise agent deploymentの既定路線になるのかだ。
Related Articles
OpenAIのTibo Sottiauxは2026年4月7日のXで、Codexの週間利用者が300万人に達したと述べた。彼は200万人から300万人への増加が1か月未満だったと説明し、OpenAIは1000万人に達するまで100万人増えるたびにusage limitsをリセットするとした。
OpenAIはGPT-5.4を、professional work向けで最も高性能かつ効率的なfrontier modelとして公開した。reasoning、coding、computer useをまとめて強化し、ChatGPT・API・Codexへ同時投入した点が大きい。
OpenAIは2026年3月17日、GPT-5.4 miniをChatGPT、Codex、APIで利用可能にしたと発表した。投稿ではcoding、computer use、multimodal understanding、subagents向けに最適化し、GPT-5 miniの2倍の速度をうたっている。
Comments (0)
No comments yet. Be the first to comment!