Google, multimodal retrieval용 Gemini Embedding 2 프리뷰 공개

Original: Start building with Gemini Embedding 2, our most capable and first fully multimodal embedding model built on the Gemini architecture. Now available in preview via the Gemini API and in Vertex AI. View original →

Read in other languages: English日本語
LLM Mar 11, 2026 By Insights AI 1 min read 1 views Source

Google AI Developers는 2026년 3월 10일 X를 통해 Gemini Embedding 2가 Gemini API와 Vertex AI에서 preview로 제공된다고 밝혔다. 회사는 이를 Gemini architecture 기반의 첫 fully multimodal embedding model이자, 현재 가장 capable한 embedding model이라고 설명했다.

Google의 공식 blog에 따르면 Gemini Embedding 2는 text, image, video, audio, document를 하나의 representation space에 매핑한다. 또한 100개 이상의 language 지원과 128, 768, 1536, 3072 같은 flexible output dimension을 제공해, developer가 recall, latency, storage cost 사이에서 실질적인 trade-off를 조정할 수 있게 했다.

이 출시는 retrieval과 ranking workload에 실질적인 의미가 있다. search, RAG, recommendation, moderation, cross-media discovery 시스템을 만드는 팀은 modality마다 서로 다른 embedding stack을 이어 붙이는 경우가 많다. natively multimodal한 model이 있으면 indexing pipeline이 단순해지고, 여러 product surface에서 같은 semantic layer를 재사용하기 쉬워진다.

왜 중요한가

  • text, image, video, audio, PDF workflow를 하나의 embedding space로 다루면 retrieval architecture가 단순해질 수 있다.
  • Gemini API와 Vertex AI 동시 preview는 Google Cloud 사용자에게 adoption friction을 낮춘다.
  • flexible dimension 제공은 cost와 performance tuning을 위한 실용적인 knob가 된다.

물론 이번 출시는 아직 preview 단계이므로 pricing, limit, benchmark positioning은 바뀔 수 있다. 그럼에도 방향은 분명하다. Google은 Gemini를 generation model family로만 두지 않고, multimodal retrieval까지 포괄하는 platform layer로 밀어붙이려 하고 있다. 이는 enterprise search와 agent system 설계에도 영향을 줄 수 있는 신호다.

Primary sources: Google AI Developers on X, Google Blog.

Share:

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.