Azure, Microsoft Foundry에서 GPT-Realtime-1.5·GPT-Audio-1.5·GPT-5.3-Codex 롤아웃 발표
Original: New Azure OpenAI models are available in Microsoft Foundry: GPT‑Realtime‑1.5, GPT‑Audio‑1.5, and GPT‑5.3‑Codex. Built for low‑latency voice + long‑running engineering workflows. Learn more here: https://t.co/Z9WYzj6rYy https://t.co/yKWfFRg2Sn View original →
X 발표와 Microsoft 공식 문서
Azure는 2026-02-25 X 게시물에서 GPT-Realtime-1.5, GPT-Audio-1.5, GPT-5.3-Codex가 Microsoft Foundry에 롤아웃된다고 공지했다. 연결된 Microsoft Foundry 블로그(2026-02-24 발행)는 이번 업데이트를 실시간 상호작용의 연속성과 장기 개발 작업의 신뢰성 강화로 정의한다.
GPT-5.3-Codex 포지셔닝
문서에서 GPT-5.3-Codex는 리팩터링, 마이그레이션, agentic workflow, 코드 리뷰/테스트 자동화 같은 다단계 개발 작업에 맞춘 모델로 소개된다. Microsoft는 OpenAI 제공 수치로 25% faster 실행을 언급하며, 작업 중에도 맥락을 유지한 채 steering이 가능하다고 설명한다.
또한 Foundry 기준 가격도 공개했다. GPT-5.3-Codex는 1M 토큰당 input $1.75, cached input $0.175, output $14.00으로 제시됐다.
Realtime/Audio 모델 업데이트 의미
GPT-Realtime-1.5와 GPT-Audio-1.5에 대해서는 저지연 음성 상호작용, instruction following 개선, function calling 지원이 핵심으로 제시됐다. 문서에는 OpenAI 평가 기준으로 Big Bench Audio reasoning +5%, alphanumeric transcription +10.23%, instruction following +7% 개선 수치가 포함된다.
수치는 vendor-reported이지만, coding 모델과 voice 모델을 동일 플랫폼 워크플로우에서 함께 제공한다는 점은 운영 관점에서 의미가 크다.
엔터프라이즈 관점의 실질적 효과
하나의 AI 운영 플랫폼에 표준화하려는 조직이라면, 개발 도구, 사내 assistant, 음성 인터페이스를 별도 체계로 분리하지 않고 평가/배포/거버넌스를 통합할 수 있다. 이는 모델 교체 시 검증 경로를 단순화하고, 정책 준수와 비용 관리를 일관되게 적용하는 데 유리하다.
Primary sources: X post, Microsoft Foundry blog.
Related Articles
Microsoft는 Fireworks AI가 Microsoft Foundry에 들어오면서 Azure에서 high-performance, low-latency open model inference를 제공한다고 밝혔다. day-zero access, custom model 반입, enterprise control을 한곳에서 제공하는 것이 핵심 메시지다.
Azure가 GPT-5.4를 Microsoft Foundry에서 일반 제공한다고 발표했다. Microsoft는 더 안정적인 multi-step execution과 governance controls를 내세우면서 GPT-5.4 Pro, 가격, 초기 배포 옵션도 함께 공개했다.
OpenAI는 GPT-5.4 Thinking을 ChatGPT에, GPT-5.4를 API와 Codex에, GPT-5.4 Pro를 ChatGPT와 API에 배포하기 시작했다. reasoning, coding, native computer use를 최대 1M-token context와 함께 하나의 professional-work model로 묶었다는 점이 핵심이다.
Comments (0)
No comments yet. Be the first to comment!