Cloudflare, GPT-5.4·Codex를 실전형 enterprise agent stack으로 밀어 넣다
Original: Enterprises power agentic workflows in Cloudflare Agent Cloud with OpenAI View original →
지난 1년 동안 enterprise AI 팀이 배운 건, model API만 붙였다고 agent platform이 되는 건 아니라는 점이다. 진짜 어려운 부분은 model 바깥에 있다. 코드가 어디서 돌고, state를 어디에 남기고, tools를 어떤 권한으로 호출하고, 실서비스 traffic 아래에서 얼마나 빨리 응답하느냐가 제품의 성패를 가른다. 4월 13일 OpenAI 글은 Cloudflare Agent Cloud에서 Responses API와 GPT-5.4를 포함한 OpenAI 모델을 first-party로 받으면서, 그 배선 작업을 한 번에 줄이려는 시도다.
핵심은 단순한 integration 추가가 아니라는 데 있다. OpenAI는 Cloudflare를 Workers, Durable Objects, R2, D1, sandboxed execution이 함께 붙는 runtime으로 밀고 있다. 여기에 Codex harness도 Cloudflare Sandboxes 안으로 들어가면서 coding agent가 느슨한 script 묶음이 아니라 통제된 환경에서 작업을 수행할 수 있게 됐다. agent demo는 누구나 만들 수 있지만, enterprise 환경에서 살아남는 agent는 state 관리, 권한 경계, 실패 복구에서 갈린다.
OpenAI는 이번 글에서 상용 사용 규모도 함께 꺼냈다. business customers가 1 million을 넘었고, Codex를 쓰는 weekly active users도 3 million 이상이라는 설명이다. 또 code execution, web search, remote connectors 같은 first-party tools 수요가 빠르게 늘면서, 개발자들이 agent workflow를 더 이상 실험용 장난감으로 보지 않는다고 강조했다. 즉 model 호출은 점점 storage, queue, execution environment 가까이 붙고 있고, 그 변화가 AI 제품의 설계 자체를 바꾸고 있다.
전략적으로 보면 그림은 단순하다. OpenAI는 model과 tools 계층을 잡고 싶어 하고, Cloudflare는 그 agent가 실제로 일하는 runtime이 되고 싶어 한다. 이 조합이 버티면, 지금까지 model과 infra를 따로 꿰매야 했던 기업들은 code 실행, state 유지, edge serving을 더 적은 architecture sprawl로 밀어붙일 수 있다. 다음 관전 포인트는 이 구성이 초기 adopters의 지름길에 그칠지, 아니면 enterprise agent 배포의 기본 경로로 굳어질지다.
Related Articles
OpenAI의 Tibo Sottiaux는 2026년 4월 7일 X에서 Codex 주간 이용자가 300만 명에 도달했다고 밝혔다. 그는 2백만 명에서 3백만 명까지 한 달도 채 걸리지 않았다고 설명했고, OpenAI가 1백만 명이 추가될 때마다 1천만 명까지 usage limits를 재설정하겠다고 말했다.
OpenAI는 GPT-5.4를 전문 업무용으로 가장 강력하고 효율적인 frontier model로 소개했다. reasoning, coding, computer use를 함께 끌어올리면서 ChatGPT, API, Codex 전반에 동시에 배치한 점이 핵심이다.
OpenAI는 2026년 3월 17일 GPT-5.4 mini를 ChatGPT, Codex, API에서 사용할 수 있다고 밝혔다. 회사는 이 모델을 coding, computer use, multimodal understanding, subagents용으로 최적화했고 GPT-5 mini보다 2배 빠르다고 설명했다.
Comments (0)
No comments yet. Be the first to comment!