OpenAI, Codex Automations 정식 출시와 함께 모델·브랜치·템플릿 제어 추가
Original: Automations are now GA. View original →
OpenAI Developers는 2026년 3월 12일 X에서 Codex Automations가 general availability(GA)에 들어갔다고 밝혔다. 공지에서 OpenAI는 automation run마다 모델과 reasoning level을 고를 수 있고, 실행 위치를 격리된 worktree로 할지 기존 branch로 할지 선택할 수 있으며, 반복 작업은 template으로 재사용할 수 있다고 설명했다. 활용 예시로는 daily repo briefing, issue triage, pull request comment follow-up 같은 반복성 높은 개발 업무가 제시됐다.
이 업데이트가 중요한 이유는 Codex가 단발성 대화형 코딩 보조를 넘어 운영 가능한 workflow 계층으로 이동하고 있기 때문이다. OpenAI의 Codex 도움말은 Codex app이 worktree, skills, automations, git 기능을 기본 지원하고 여러 agent를 병렬로 실행할 수 있다고 설명한다. X 공지와 공식 문서를 함께 보면, OpenAI는 Codex를 질문에 답하는 coding assistant에서 반복 가능한 엔지니어링 운영 도구로 확장하려는 것으로 해석된다.
- 모델과 reasoning level 선택은 반복 작업마다 비용, 속도, 품질을 조정할 수 있게 한다.
- worktree와 기존 branch 사이의 선택은 repository를 얼마나 안전하게 다룰지에 직접 연결된다.
- template 재사용은 팀이 동일한 workflow를 여러 프로젝트에 표준화하기 쉽게 만든다.
실제로 automation은 모델 성능보다 운영 설계에서 더 자주 실패한다. agent가 한 번의 task를 해결하는 것과, 그 task를 매일 또는 이벤트 기반으로 안정적으로 반복 수행하는 것은 전혀 다른 문제다. branch 격리, 재사용 가능한 설정, 사람 검토 지점이 있어야만 팀은 automation을 실제 개발 프로세스에 넣을 수 있다. OpenAI가 이번에 노출한 옵션들은 바로 그 운영 요건을 겨냥한다.
결국 이번 GA는 agentic coding 경쟁이 benchmark 중심에서 scheduling, isolation, policy control 중심으로 이동하고 있음을 보여준다. 모든 workflow를 즉시 무인화할 수 있다는 뜻은 아니지만, OpenAI가 Codex automation layer를 더 넓은 팀 사용에 견딜 정도로 성숙했다고 판단했다는 신호로 읽힌다. Codex를 실험적으로 써보던 팀에게는 session 단위 도구를 넘어 반복 업무 인프라로 활용할 수 있는 계기가 될 수 있다.
Related Articles
OpenAI는 GPT-5.4 Thinking을 ChatGPT에, GPT-5.4를 API와 Codex에, GPT-5.4 Pro를 ChatGPT와 API에 배포하기 시작했다. reasoning, coding, native computer use를 최대 1M-token context와 함께 하나의 professional-work model로 묶었다는 점이 핵심이다.
OpenAI는 2026년 3월 5일 GPT-5.4를 ChatGPT, API, Codex에 순차 배포한다고 발표했다. GPT-5.4는 GPT-5.3-Codex의 coding 역량을 본류 reasoning 모델에 통합하고, native computer use와 Codex의 experimental 1M context 지원을 내세운다.
OpenAI는 GPT-5.4 Thinking과 Pro를 ChatGPT, API, Codex에 걸쳐 순차적으로 출시한다고 밝혔다. 회사는 GPT-5.4를 coding, computer use, tool search, 1M-token context를 갖춘 professional work용 frontier model로 포지셔닝했다.
Comments (0)
No comments yet. Be the first to comment!