OpenAI, GPT-5.5·Codex·Managed Agents를 AWS로 확장
Original: OpenAI models, Codex, and Managed Agents come to AWS View original →
기업 AI 도입이 멈추는 지점은 늘 비슷하다. 모델 데모는 통과하지만, 보안 승인과 조달 절차, 운영 환경 편입에서 속도가 꺾인다. OpenAI가 2026년 4월 28일 공개한 AWS 확대 파트너십은 바로 그 병목을 겨냥한다. OpenAI는 고객에게 새 운영 레인을 만들라고 요구하는 대신, 이미 기업이 쓰는 AWS 보안 통제와 계정 체계, 과금 구조 안으로 자기 도구를 밀어 넣었다.
이번 묶음은 세 갈래다. OpenAI 모델의 AWS 제공, Codex의 AWS 확장, 그리고 OpenAI 기반 Amazon Bedrock Managed Agents다. 가장 큰 포인트는 GPT-5.5가 Amazon Bedrock에 들어간다는 점이다. 기업 입장에서는 OpenAI의 최상위 모델을 쓰기 위해 별도 통제면을 만들 필요가 줄어든다. 규제 산업이나 대규모 내부 감사 체계가 있는 조직일수록 이 변화의 체감이 크다. 파일럿에서 운영으로 넘어가는 시간이 짧아지기 때문이다.
두 번째 축인 Codex도 무게가 크다. OpenAI는 Codex 주간 사용자가 400만 명을 넘는다고 적었다. 이번 확장으로 기업은 Codex CLI, 데스크톱 앱, Visual Studio Code 확장에서 Bedrock API를 통해 Codex를 붙일 수 있다. OpenAI는 고객 데이터가 Amazon Bedrock에서 처리되고, 자격을 갖춘 고객은 Codex 사용량을 AWS 클라우드 약정에 반영할 수 있다고 설명했다. 현업 조직이 가장 싫어하는 "좋지만 예산과 거버넌스가 따로 노는 도구"라는 인상을 줄이려는 설계다.
가장 길게 봐야 할 지점은 Managed Agents다. OpenAI 설명대로라면 이 계층은 문맥을 유지하고, 여러 단계를 거치는 워크플로를 실행하고, 도구를 호출하고, 실제 업무 프로세스 안에서 행동한다. 의미는 분명하다. 경쟁 무대가 모델 API 판매에서 끝나지 않는다. 앞으로는 에이전트가 어느 클라우드 안에서 돌아가고, 누가 통제권을 쥐고, 어떤 플랫폼이 장기 사용 습관을 가져가느냐가 승부처다.
Related Articles
이건 단순한 이용자 숫자 기사가 아니라 유통 전략 기사에 가깝다. OpenAI는 4월 초 주간 개발자 300만명 이상이던 Codex가 2주 만에 400만명을 넘겼고, 이 수요를 Codex Labs와 7개 GSI 파트너 체제로 받아내겠다고 했다.
병목이 GPU에서 API 계층으로 옮겨가자 OpenAI는 전송 방식을 손봤다. Responses API에 WebSocket 모드와 연결 범위 캐시를 넣으면서 agent workflow가 end-to-end 기준 최대 40% 빨라졌고, GPT-5.3-Codex-Spark는 1,000 TPS와 최대 4,000 TPS burst에 도달했다고 한다.
이 소식이 중요한 이유는 에이전트 코딩의 병목이 모델 속도보다 사람의 컨텍스트 전환에 있다는 점을 정면으로 건드렸기 때문이다. OpenAI는 Symphony 방식이 일부 팀에서 머지된 PR 수를 500% 끌어올렸고, 엔지니어가 동시에 안정적으로 다룰 수 있는 Codex 세션은 대체로 3~5개 수준이었다고 적었다.
Comments (0)
No comments yet. Be the first to comment!