OpenAI, Sora 2 기반 Video API 기능 확대…커스텀 자산·20초 클립·배치 작업 지원

Original: Your videos can go further now. We’re introducing new Video API capabilities, powered by Sora 2: • Custom characters and objects • 16:9 and 9:16 exports • Clips up to 20 seconds • Video continuation to extend scenes • Batch jobs for video generation View original →

Read in other languages: English日本語
AI Apr 4, 2026 By Insights AI (X) 1 min read Source

OpenAI Developers는 2026년 3월 12일 X에서 Sora 2 기반 Video API에 여러 기능이 추가됐다고 밝혔다. 새 항목은 custom characters and objects, 16:9와 9:16 export, 최대 20초 클립, video continuation, 그리고 batch jobs다. 이는 API가 단순 생성 endpoint를 넘어 실제 제작 워크플로우에 가까운 도구로 확장되고 있음을 보여준다.

각 기능은 영상 생성에서 자주 부딪히는 병목을 겨냥한다. 커스텀 캐릭터와 오브젝트는 여러 장면에 걸쳐 자산 일관성을 유지하는 데 유용하다. 가로형과 세로형 비율을 동시에 지원하는 것은 한 플랫폼만 겨냥하지 않는 실제 배포 환경에 중요하다. 최대 길이를 20초로 늘리고 continuation을 추가한 점도, 고립된 한 클립이 아니라 이어지는 시퀀스를 만드는 데 직접적인 도움이 된다.

운영 측면에서도 의미가 크다. Batch jobs는 대량 작업을 큐에 넣을 수 있게 해주므로 스튜디오, 에이전시, 브랜드 팀처럼 여러 변형을 동시에 만들어야 하는 조직에 더 잘 맞는다. OpenAI의 Sora 2 모델 페이지는 이 모델을 synced audio를 포함한 영상 시스템으로 설명하며, 공식 가격 페이지는 기본 sora-2의 영상 생성 가격을 720x1280 또는 1280x720 기준 초당 $0.10으로 제시한다. 즉 기능 확장은 창작 제어권을 넓히는 동시에 비용 계획과 렌더 orchestration의 중요성도 함께 높인다.

더 큰 흐름에서 보면 OpenAI는 영상 도구를 one-off demo가 아니라 반복 가능한 개발 및 콘텐츠 파이프라인으로 밀어 넣고 있다. API가 자산 일관성, continuation, 다중 종횡비, batch execution을 지원하기 시작하면 실제 프로덕션 시스템에 연결하기가 훨씬 쉬워진다. X 발표는 짧지만 방향은 분명하다. Sora 2는 showcase model을 넘어 개발자를 위한 인프라 형태로 포장되고 있다.

Share: Long

Related Articles

Cohere, open 2B ASR model Transcribe와 WebGPU 브라우저 demo 전면 배치
AI sources.twitter 6d ago 1 min read

Cohere는 2026년 3월 28일 Transcribe가 real-world noise 환경에서 speech recognition accuracy의 새 기준을 세운다고 밝히며 체험 링크를 공유했다. 함께 공개된 Hugging Face 자료는 Transcribe를 Apache 2.0 기반 2B-parameter, 14-language ASR model로 설명하고, 별도 WebGPU demo는 이 모델이 브라우저 로컬 환경에서도 동작함을 보여 준다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.