GPT-5.5, ChatGPT·Codex 투입…복잡한 목표를 끝까지 밀어붙이는 에이전트형 모델로
Original: OpenAI put GPT-5.5 live in ChatGPT and Codex as a model for tool-using agent work View original →
트윗이 드러낸 것
OpenAI는 GPT-5.5를 대화용 신모델보다 실제 업무용 모델로 규정했다. 핵심 문장은 A new class of intelligence for real work and powering agents, built to understand complex goals, use tools, check its work, and carry more tasks through to completion. 이다. 이어서 중요한 배포 정보도 붙었다. GPT-5.5는 이미 ChatGPT와 Codex에 들어갔다.
OpenAI 메인 계정은 frontier model release를 직접 싣는 대표 채널이다. 이번 post의 톤은 단순한 chatbot refresh가 아니다. 긴 workflow를 사람의 잦은 개입 없이 도구, 파일, 브라우저형 환경까지 이어가게 하겠다는 제품 방향 선언에 가깝다.
developer 후속 트윗의 맥락
2분 뒤 OpenAI Developers 계정은 좀 더 운영적인 설명을 붙였다. GPT-5.5는 “our smartest frontier model yet”이며 ChatGPT와 Codex에 오늘부터 rollout되고, API는 곧 온다는 내용이다. 뒤이은 후속 트윗은 Codex 쪽 변화도 구체화했다. browser use를 넓혀 web app을 클릭해가며 test flow를 수행하고, screenshot을 찍고, 본 것을 바탕으로 반복 수정할 수 있다는 설명이다. 이 대목이 중요한 이유는 출시 메시지가 추상적 능력 자랑에서 끝나지 않고, agent loop 안에서 어떤 식으로 쓰려는지까지 보여주기 때문이다.
이번 크롤링에서는 OpenAI 공식 product page가 공개 fetch를 안정적으로 허용하지 않았다. 그래서 48시간 창 안에서 검증 가능한 공개 자료는 트윗 시퀀스와 embed metadata가 핵심이다. 그래도 방향성은 분명하다. 메인 계정은 complex goals, tool use, self-checking을 전면에 내세웠고, developer 계정은 rollout timing과 Codex의 browser interaction 확장을 보탰다.
다음 관전 포인트
이제 중요한 것은 슬로건이 아니라 운영 세부다. API model ID, pricing, system card, 그리고 실제 QA·browser·file-heavy workload에서의 재현성이 뒤따라야 한다. OpenAI가 이 부분을 곧 공개한다면 GPT-5.5는 “좋은 채팅 모델”보다, 실무형 agent를 굴리는 기본 엔진으로 평가받게 될 가능성이 크다.
Sources: X source tweet · OpenAI Developers rollout tweet · OpenAI Developers browser-use follow-up · Official embed
Related Articles
OpenAI는 Codex를 매주 300만 명이 넘는 developers가 쓰고 있다고 밝히며, desktop app을 code editor 밖으로 확장했다. 이번 update에는 macOS background computer use, in-app browser, gpt-image-1.5 image generation, 90개+ plugins, PR review workflow, SSH devboxes alpha, automations, memory preview가 포함됐다.
이건 단순한 이용자 숫자 기사가 아니라 유통 전략 기사에 가깝다. OpenAI는 4월 초 주간 개발자 300만명 이상이던 Codex가 2주 만에 400만명을 넘겼고, 이 수요를 Codex Labs와 7개 GSI 파트너 체제로 받아내겠다고 했다.
병목이 GPU에서 API 계층으로 옮겨가자 OpenAI는 전송 방식을 손봤다. Responses API에 WebSocket 모드와 연결 범위 캐시를 넣으면서 agent workflow가 end-to-end 기준 최대 40% 빨라졌고, GPT-5.3-Codex-Spark는 1,000 TPS와 최대 4,000 TPS burst에 도달했다고 한다.
Comments (0)
No comments yet. Be the first to comment!