Together AI, Wan 2.7 video 생성·연장·편집 워크플로를 단일 API로 통합
Original: Introducing Wan 2.7 from @alibaba_cloud on Together AI. AI natives can now build with Wan 2.7 on Together AI and get a clearer path from first-generation video to continuation, reference-driven control, and editing on one production platform. View original →
X에서 Together AI가 말한 내용
2026년 4월 3일, Together AI는 Alibaba Cloud의 Wan 2.7을 자사 플랫폼에 올리며 video workflow를 더 통합된 형태로 제공하겠다고 밝혔다. 이 게시물의 핵심은 단순한 모델 추가가 아니다. Together는 첫 번째 generated clip에서 continuation, reference-driven control, editing까지를 서로 다른 도구로 이어 붙이지 않고, 하나의 production platform 안에서 처리할 수 있다는 점을 강조한다.
이 메시지는 멀티모달 개발의 실제 문제를 겨냥한다. video generation은 데모하기 쉽지만, 프로젝트에 continuity, reference matching, revision, editorial control이 필요해지는 순간 복잡해진다. 많은 팀이 서로 다른 모델 공급자와 후처리 시스템을 오가며 파이프라인을 구성한다. Together가 말하는 장점은 Wan 2.7이 이런 분절을 줄이고 더 많은 단계를 하나의 운영 표면으로 가져온다는 데 있다.
제품 글이 설명하는 내용
Together의 제품 글은 Wan 2.7을 generation, continuation, reference-driven workflow, editing을 포괄하는 4개 모델 제품군으로 설명한다. 현재는 Wan-AI/wan2.7-t2v 기반의 text-to-video가 먼저 제공되고, 이후 image-to-video, reference-to-video, video edit가 같은 플랫폼 위에서 순차적으로 공개될 예정이다.
현재 제공되는 text-to-video는 720P와 1080P 출력, 2초에서 15초 길이, 선택적 audio input, 그리고 prompt 기반 multi-shot direction을 지원한다. Together는 또 이 서비스가 기존 멀티모달 스택과 동일한 API, authentication, SDK, billing surface를 사용하며, 가격은 생성 video 초당 0.10달러부터 시작한다고 설명한다.
왜 중요한가
이 발표가 중요한 이유는 video AI의 경쟁 포인트가 “클립을 만들 수 있느냐”에서 “production iteration을 얼마나 잘 지원하느냐”로 이동하고 있기 때문이다. 실제 팀은 continuation, reference control, editing, 예측 가능한 운영 인터페이스를 원한다. 이런 요소가 여러 개의 분리된 서비스가 아니라 하나의 API 계약 뒤에 모이면, video 기능을 제품과 내부 파이프라인에 붙이기가 훨씬 쉬워진다.
Together AI 입장에서도 Wan 2.7은 포지셔닝 전략이다. 텍스트 추론을 통합하듯, 멀티모달 인프라도 하나의 계정·하나의 과금 구조·하나의 개발자 표면으로 묶을 수 있음을 보여 주려는 것이다. 이 접근이 먹히면 플랫폼의 가치는 단일 모델 보유 여부보다, 여러 video workflow를 함께 쓸 때 발생하는 운영 비용을 얼마나 줄이느냐에서 결정될 가능성이 크다.
Related Articles
Google은 2026년 3월 26일 Search Live를 AI Mode 제공 지역 전체로 확대했다. 이번 rollout은 voice와 camera 기반 search를 200개 이상 국가·지역으로 넓히고, Gemini 3.1 Flash Live를 실제 Search 인터페이스에 깊게 연결했다는 점에서 중요하다.
Reddit에서 확산된 Netflix VOID는 video에서 물체뿐 아니라 그 물체가 만든 interaction까지 제거하려는 open research model이다. CogVideoX 기반 2-pass pipeline, Gemini+SAM2 mask 생성, 40GB+ VRAM 요구사항이 기술적 핵심이다.
StepSecurity가 2026년 3월 31일 악성 axios 릴리스를 공개하면서 JavaScript ecosystem 전반에 경고가 퍼졌다. 문제의 버전은 유지보수자 계정 탈취와 가짜 dependency를 통해 RAT dropper를 배포한 것으로 분석됐다.
Comments (0)
No comments yet. Be the first to comment!