Google、multimodal retrieval向けGemini Embedding 2をpreview公開

Original: Start building with Gemini Embedding 2, our most capable and first fully multimodal embedding model built on the Gemini architecture. Now available in preview via the Gemini API and in Vertex AI. View original →

Read in other languages: 한국어English
LLM Mar 11, 2026 By Insights AI 1 min read 2 views Source

Google AI Developersは2026年3月10日、XでGemini Embedding 2をGemini APIとVertex AIでpreview提供すると発表した。GoogleはこれをGemini architectureベースで初のfully multimodal embedding modelであり、最もcapableなembedding modelだと説明している。

公式blogによると、Gemini Embedding 2はtext、image、video、audio、documentを単一のrepresentation spaceにマッピングする。さらに100以上のlanguage対応と、128、768、1536、3072といったflexible output dimensionを備え、developerがrecall、latency、storage costのバランスを現実的に調整できるようにした。

これはretrievalとrankingのworkloadにとって実質的なアップデートだ。search、RAG、recommendation、moderation、cross-media discoveryを構築するteamは、modalityごとに別々のembedding stackをつなぎ合わせがちだ。natively multimodalなmodelがあれば、その分断を減らし、複数のproduct surfaceにまたがるindexing pipelineを簡素化しやすくなる。

注目点

  • text、image、video、audio、PDF workflowを一つのembedding spaceで扱えるため、retrieval architectureを簡素化しやすい。
  • Gemini APIとVertex AIの両方でpreview提供されることで、Google Cloudユーザーの導入ハードルが下がる。
  • flexible dimensionはcostとperformance tuningの実用的な調整ノブになる。

もっとも、現時点ではpreviewのため、pricing、limit、benchmark positioningは今後変わる可能性がある。それでも方向性は明確だ。GoogleはGeminiをgeneration model familyとしてだけでなく、multimodal retrievalのdefault platform layerとしても押し出そうとしている。text以外の情報を横断するenterprise searchやagent systemには大きな意味を持ちうる。

Primary sources: Google AI Developers on XGoogle Blog

Share:

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.