Google, 3분 길이와 곡 구조 제어를 지원하는 Lyria 3 Pro를 Vertex AI와 AI Studio로 확대
Original: Last month, we released Lyria 3, enabling you to create tracks with lyrics from text, image, or video prompts. Now, we’re introducing Lyria 3 Pro, which expands upon our music generation model to offer additional advanced capabilities. What’s really special about this upgrade is that the model now understands the architecture of music. This makes it possible to prompt for intros, verses, choruses and bridges + generate songs with more complex transitions. You can also create tracks up to 3 minutes long, a big change from previous models that were limited to 30 second tracks. Use Lyria 3 Pro to build upon your existing creativity. We’re excited for your beats to drop 🎶 View original →
Google이 X에서 밝힌 내용
2026년 3월 25일, Google은 음악 생성 모델 Lyria 3 Pro가 짧은 클립을 넘어 더 구조적인 작곡을 지원한다고 밝혔다. X 게시물의 핵심은 두 가지다. 첫째, 최대 3분 길이의 트랙을 만들 수 있다는 점. 둘째, 모델이 음악의 구조를 더 잘 이해해 intro, verse, chorus, bridge 같은 요소를 직접 프롬프트로 지정할 수 있다는 점이다.
이 메시지는 단순한 데모 고도화 이상의 의미를 갖는다. 모델이 더 긴 길이에서 곡 구조를 유지할 수 있다면, 음악가와 크리에이터, 그리고 툴 개발자는 이를 rough composition, soundtrack 반복 제작, 브랜드 콘텐츠, 창작 도구 내 프로토타이핑에 훨씬 실용적으로 활용할 수 있기 때문이다.
Google 블로그가 추가한 정보
연결된 Google 블로그는 Lyria 3 Pro가 더 많은 전문가용·개발자용 제품 표면으로 확장된다고 설명한다. Google에 따르면 이 모델은 대규모 고품질 오디오 생성 수요를 위한 Vertex AI public preview에 들어갔고, 개발자용 Google AI Studio에서는 Lyria RealTime과 함께 제공된다.
또한 Google Vids는 Workspace 사용자들이 AI 기반 영상 제작 과정에서 맞춤 음악을 넣을 수 있도록 Lyria 3와 Lyria 3 Pro를 도입하고 있으며, Music AI Sandbox는 아티스트·프로듀서·송라이터와의 협업 채널로 계속 운영된다고 밝혔다. 즉 이번 발표는 모델 성능 개선과 동시에, 실제 창작이 이뤄지는 제품군 전체로의 유통 확대를 뜻한다.
왜 중요한가
핵심은 Google이 음악 생성을 또 하나의 생성형 미디어 데모가 아니라, 엔터프라이즈 API, 개발자 툴, 최종 사용자 제작 앱을 관통하는 플랫폼 기능으로 다루기 시작했다는 점이다. 이는 AI 오디오를 소비자 실험이 아니라 제품 기능과 업무 흐름에 넣을지 고민하는 팀에게 훨씬 큰 의미를 가진다.
물론 음악적으로 설득력 있는 데모와 실제 production 사용 사이에는 여전히 간극이 있다. 권리 처리, provenance, 기존 워크플로우와의 결합은 계속 중요한 쟁점이 될 것이다. 그럼에도 Lyria 3 Pro를 Vertex AI, AI Studio, Google Vids에 동시에 확장한 것은 Google이 음악 생성을 더 운영 가능한 영역으로 밀어 넣고 있음을 보여준다.
출처: Google AI X 게시물 · Google 블로그 글
Related Articles
Google AI는 2026년 3월 6일 X를 통해 Nano Banana 2가 Google AI Studio와 Vertex AI의 Gemini API에서 바로 사용 가능하다고 밝혔다. 연결된 Google 글은 Nano Banana 2, 즉 Gemini 3.1 Flash Image를 실제 애플리케이션용 고품질·고속 image model로 소개한다.
Google은 2026년 3월 17일, Personal Intelligence를 미국에서 AI Mode in Search, Gemini app, Gemini in Chrome으로 확대한다고 밝혔다. 이 기능은 Gmail과 Google Photos 같은 서비스를 연결해 더 개인화된 shopping, travel, troubleshooting 응답을 제공하며, Google은 free-tier 사용자도 사용할 수 있다고 설명했다.
Google은 2026년 3월 25일 post-quantum cryptography 전환 목표 시점을 2029년으로 제시했다. 양자 하드웨어와 오류 정정, factoring 추정치의 진전에 맞춰 인증·서명 인프라 전환을 더 서둘러야 한다는 메시지다.
Comments (0)
No comments yet. Be the first to comment!