Runway, GWM-1 기반 real-time video agent API 'Runway Characters' 공개
Original: Introducing Runway Characters View original →
Runway는 2026년 3월 9일 Runway Characters를 공개했다. 회사는 이 제품을 real-time video agent API로 소개하며, single reference image 한 장만으로 conversational character를 만들 수 있고 fine-tuning은 필요 없다고 설명했다. 기반 기술은 최근 발표한 world model GWM-1이다.
Runway에 따르면 개발자는 photorealistic avatar부터 animated mascot까지 다양한 visual style을 선택할 수 있고, voice, personality, knowledge, actions를 API로 제어할 수 있다. 회사는 natural facial expression, eye movement, lip-sync, gesture를 포함한 상호작용을 강조하면서, text box 중심 인터페이스에서 video 중심 인터페이스로 넘어가는 흐름이라고 설명했다.
- single image만으로 캐릭터 외형을 정의할 수 있다.
- API에서 voice, personality, knowledge, actions를 세밀하게 설정할 수 있다.
- Runway는 긴 대화에서도 quality degradation 없이 real-time 성능을 유지한다고 주장한다.
Runway는 이 제품을 단순 demo가 아니라 enterprise workflow용 도구로 배치하고 있다. launch 글에서는 customer support, learning and development, brand experience를 주요 활용처로 제시했다. 회사 설명대로라면 character는 enterprise knowledge base를 참조하고, support ticket을 만들고, inventory를 기반으로 order action을 수행할 수 있다. BBC와 Silverside가 이미 파트너로 사용 중이라고 Runway는 밝혔다.
배포도 개발자와 일반 사용자로 나뉜다. enterprise team은 지금부터 dev.runwayml.com에서 API 기반 avatar를 구축할 수 있고, 일반 사용자는 Runway web app에서 preset avatar를 체험할 수 있다. 의미는 단순한 avatar 데모보다 크다. Runway가 world model 연구를 고객 접점용 programmable product로 전환하기 시작했다는 점이 핵심이다.
Related Articles
r/LocalLLaMA가 이 작은 demo에 반응한 이유는 polished game이 아니라, photo와 drawing을 local world model이 즉석에서 play space로 바꾸는 감각이었다.
HN이 이 post를 흥미롭게 본 이유는 Apple Silicon unified memory가 Wasm sandbox와 GPU buffer 사이의 copy boundary를 실제로 줄일 수 있느냐는 구현 질문이었다.
TNW는 Google이 Marvell과 두 종류의 AI chip을 논의 중이라고 전했다. signed contract는 아직 없지만, memory processing unit과 inference TPU 구상은 AI 비용의 중심이 training에서 inference로 이동했음을 보여준다.
Comments (0)
No comments yet. Be the first to comment!