OpenAI、Sora 2 の Video API を拡張 長尺化・継続生成・Batch Jobs を追加
Original: Your videos can go further now. We’re introducing new Video API capabilities, powered by Sora 2: • Custom characters and objects • 16:9 and 9:16 exports • Clips up to 20 seconds • Video continuation to extend scenes • Batch jobs for video generation View original →
OpenAI Developersは2026年3月12日、XでSora 2ベースのVideo APIに複数の新機能を追加したと発表した。内容はcustom characters and objects、16:9と9:16のexport、最大20秒のclip、video continuation、そしてbatch jobsだ。これはAPIを単なるgeneration endpointから、より実運用に近いworkflow toolへ近づける更新といえる。
それぞれの追加機能はvideo generationでよく問題になる箇所に対応している。custom characters and objectsは複数ショットでasset consistencyを保ちやすくする。縦横両方のaspect ratioを扱えることも重要で、marketingやsocial、product videoでは一つのformatだけでは足りない。さらにclip lengthを20秒まで伸ばし、continuationを加えたことで、孤立した断片ではなく連続したsequenceを組み立てやすくなった。
運用面の意味も大きい。batch jobsは大量のrender workloadをまとめて処理しやすくするため、studio、agency、brand teamのように多数のvariantを同時生成する環境に向く。OpenAIのSora 2 model pageはこのモデルをsynced audio付きのvideo systemとして位置づけ、公式pricing pageでは基本のsora-2を720x1280または1280x720で1秒あたり$0.10としている。つまり新機能はcreative controlを広げる一方、cost planningやrender orchestrationの重要性も高める。
全体として見ると、OpenAIはvideo toolingをone-off demoから、反復可能なdevelopmentとcontent pipelineへ押し出している。APIがasset consistency、continuation、複数のaspect ratio、batch executionを備えるようになると、実際のproduction systemへ組み込みやすくなる。Xの告知は短いが、方向性は明白だ。Sora 2はshowcase modelにとどまらず、developers向けのinfrastructureとして整えられつつある。
Related Articles
OpenAI Developersは2026-03-12のX投稿で、Sora 2ベースのVideo API拡張を発表した。再利用可能なcharacter asset、scene extension、20秒クリップ、縦横比対応、batch renderingまで含み、動画生成をより実務向けに押し上げている。
Cohereは2026年3月28日、Transcribeがreal-world noise環境でspeech recognition accuracyの新しい基準を示すと述べ、試用リンクを共有した。関連するHugging Face資料ではApache 2.0の2B-parameter・14-language ASR modelとして位置づけられ、別のWebGPU demoはこのmodelがbrowser上でローカル動作することを示している。
TimesFM を扱った Hacker News の投稿は 254 points、95 comments を集め、単なる GitHub リポジトリ紹介ではなく、汎用 time-series foundation model が本当に複数ドメインへ一般化できるのかという議論へ発展した。コメントは TimesFM 2.5 の更新点に加え、trust、explainability、Prophet や Nixtla との比較に集中した。
Comments (0)
No comments yet. Be the first to comment!