OpenAIDevs, Codex /fast 모드 공개… GPT-5.4를 1.5배 더 빠르게 실행
Original: Codex got more speed. With /fast mode, GPT-5.4 runs 1.5x faster with the same intelligence and reasoning. Move through coding tasks, iteration, and debugging while staying in flow. View original →
Codex 성능 업데이트
OpenAIDevs는 2026년 3월 5일 X 게시물에서 Codex의 /fast 모드를 발표했다. 공지에 따르면 이 모드에서 GPT-5.4는 약 1.5배 빠르게 실행되며, 지능과 추론 능력은 동일하게 유지된다고 주장한다.
메시지의 초점은 개발 루프 단축이다. 코딩, 수정 반복, 디버깅을 빠르게 이어가면서도 모델 급을 낮추지 않아도 된다는 점을 강조했다.
게시물에서 직접 확인되는 주장
- /fast 모드 활성화 시 Codex 내 GPT-5.4 처리 속도 1.5배 향상
- 지능·추론 품질은 동일하다는 공급사 주장
- 핵심 적용 구간은 반복적인 개발 워크플로우
실무 관점의 의미
개발 조직에서 지연은 누적된다. 작업 계획, 코드 수정, 툴 실행, 결과 점검이 반복될수록 작은 응답시간 개선이 세션 전체 생산성에 크게 반영된다.
따라서 품질 저하 없이 속도만 개선된다면, /fast 모드는 “빠르지만 불안정” 혹은 “정확하지만 느림” 사이의 고질적 선택 비용을 낮출 가능성이 있다. 특히 장시간 에이전트 세션이나 대규모 리팩터링 업무에서 체감 차이가 클 수 있다.
다만 성능 체감은 코드베이스와 업무 패턴에 따라 달라질 수 있으므로, 운영 기본값 변경 전 자체 검증이 필요하다.
출처: OpenAIDevs X 게시물
Related Articles
이건 단순한 이용자 숫자 기사가 아니라 유통 전략 기사에 가깝다. OpenAI는 4월 초 주간 개발자 300만명 이상이던 Codex가 2주 만에 400만명을 넘겼고, 이 수요를 Codex Labs와 7개 GSI 파트너 체제로 받아내겠다고 했다.
OpenAI가 겨냥한 지점은 채팅이 아니라 장기 작업 자동화다. 공개 수치 기준으로 GPT-5.5는 Terminal-Bench 2.0에서 82.7%를 기록해 GPT-5.4보다 7.6%p 높았고, Codex에서는 더 적은 토큰으로 같은 일을 밀어붙인다고 적었다.
OpenAI가 내세운 핵심은 단순 성능 업데이트가 아니다. Terminal-Bench 2.0 82.7%, SWE-Bench Pro 58.6%와 함께 GPT-5.4급 지연을 유지한다고 밝히며, 길고 지저분한 작업을 맡기는 코딩 에이전트 경쟁의 기준을 다시 올렸다.
Comments (0)
No comments yet. Be the first to comment!