OpenAI, Sora 2 기반 Video API 기능 확대…커스텀 자산·20초 클립·배치 작업 지원
Original: Your videos can go further now. We’re introducing new Video API capabilities, powered by Sora 2: • Custom characters and objects • 16:9 and 9:16 exports • Clips up to 20 seconds • Video continuation to extend scenes • Batch jobs for video generation View original →
OpenAI Developers는 2026년 3월 12일 X에서 Sora 2 기반 Video API에 여러 기능이 추가됐다고 밝혔다. 새 항목은 custom characters and objects, 16:9와 9:16 export, 최대 20초 클립, video continuation, 그리고 batch jobs다. 이는 API가 단순 생성 endpoint를 넘어 실제 제작 워크플로우에 가까운 도구로 확장되고 있음을 보여준다.
각 기능은 영상 생성에서 자주 부딪히는 병목을 겨냥한다. 커스텀 캐릭터와 오브젝트는 여러 장면에 걸쳐 자산 일관성을 유지하는 데 유용하다. 가로형과 세로형 비율을 동시에 지원하는 것은 한 플랫폼만 겨냥하지 않는 실제 배포 환경에 중요하다. 최대 길이를 20초로 늘리고 continuation을 추가한 점도, 고립된 한 클립이 아니라 이어지는 시퀀스를 만드는 데 직접적인 도움이 된다.
운영 측면에서도 의미가 크다. Batch jobs는 대량 작업을 큐에 넣을 수 있게 해주므로 스튜디오, 에이전시, 브랜드 팀처럼 여러 변형을 동시에 만들어야 하는 조직에 더 잘 맞는다. OpenAI의 Sora 2 모델 페이지는 이 모델을 synced audio를 포함한 영상 시스템으로 설명하며, 공식 가격 페이지는 기본 sora-2의 영상 생성 가격을 720x1280 또는 1280x720 기준 초당 $0.10으로 제시한다. 즉 기능 확장은 창작 제어권을 넓히는 동시에 비용 계획과 렌더 orchestration의 중요성도 함께 높인다.
더 큰 흐름에서 보면 OpenAI는 영상 도구를 one-off demo가 아니라 반복 가능한 개발 및 콘텐츠 파이프라인으로 밀어 넣고 있다. API가 자산 일관성, continuation, 다중 종횡비, batch execution을 지원하기 시작하면 실제 프로덕션 시스템에 연결하기가 훨씬 쉬워진다. X 발표는 짧지만 방향은 분명하다. Sora 2는 showcase model을 넘어 개발자를 위한 인프라 형태로 포장되고 있다.
Related Articles
OpenAI Developers는 2026-03-12 X 게시물에서 Sora 2 기반 Video API 기능 확장을 공개했다. 이번 업데이트는 reusable character, scene extension, 20초 클립, 세로/가로 비율, batch rendering까지 포함해 제작형 워크플로우에 가까워졌다.
StepSecurity가 2026년 3월 31일 악성 axios 릴리스를 공개하면서 JavaScript ecosystem 전반에 경고가 퍼졌다. 문제의 버전은 유지보수자 계정 탈취와 가짜 dependency를 통해 RAT dropper를 배포한 것으로 분석됐다.
Cohere는 2026년 3월 28일 Transcribe가 real-world noise 환경에서 speech recognition accuracy의 새 기준을 세운다고 밝히며 체험 링크를 공유했다. 함께 공개된 Hugging Face 자료는 Transcribe를 Apache 2.0 기반 2B-parameter, 14-language ASR model로 설명하고, 별도 WebGPU demo는 이 모델이 브라우저 로컬 환경에서도 동작함을 보여 준다.
Comments (0)
No comments yet. Be the first to comment!