Runway、GWM-1ベースのvideo agent API「Runway Characters」を公開
Original: Introducing Runway Characters View original →
Runwayは2026年3月9日、Runway Charactersを発表した。これはreal-time video agent APIで、single reference image 1枚からconversational characterを生成でき、fine-tuningは不要だと同社は説明している。基盤モデルは最近公開した world model の GWM-1だ。
同社によれば、developerは photorealistic avatar から animated mascot まで幅広い visual style を選べ、voice、personality、knowledge、actions を API から制御できる。natural facial expression、eye movement、lip-sync、gesture を含む表現も強調しており、text box中心の体験から video中心の体験への移行を狙う製品と位置づけられる。
- single imageだけでキャラクター外観を定義できる。
- APIから voice、personality、knowledge、actions を細かく設定できる。
- Runwayは長時間の会話でも quality degradationなしで real-time性能を維持すると説明している。
Runwayはこれを単なるdemoではなく、enterprise workflow向けの製品として打ち出している。launch postでは customer support、learning and development、brand experience を主要用途に挙げた。Runwayの説明では、characterは enterprise knowledge base を参照し、support ticket を作成し、inventory情報に基づく action を real-time で実行できる。BBCとSilversideはすでに導入パートナーとして記載されている。
展開はdeveloper向けとconsumer向けに分かれる。enterprise teamは今すぐ dev.runwayml.com で API 利用を始められ、consumerは Runway web app の preset avatar で体験できる。重要なのは、Runwayが world model 研究を customer-facing な programmable product に変換し始めた点であり、video-firstな AI interface の実用化を一段進めたことだ。
Related Articles
r/LocalLLaMAがこの小さなdemoに反応した理由はpolished gameではない。photoやdrawingをlocal world modelがその場でplay spaceへ変える感覚だった。
HNがこのRAM shortage storyに反応した理由は、AI data center向けHBM需要がphones、laptops、handheldsの価格にもつながるという物理的な連鎖だった。
HNがこのpostを面白がった理由は、Apple Silicon unified memoryでWasm sandboxとGPU bufferが本当に同じbytesを扱えるのかという実装上の境界だった。
Comments (0)
No comments yet. Be the first to comment!