Google、multimodal retrieval向けGemini Embedding 2をpreview公開
Original: Start building with Gemini Embedding 2, our most capable and first fully multimodal embedding model built on the Gemini architecture. Now available in preview via the Gemini API and in Vertex AI. View original →
Google AI Developersは2026年3月10日、XでGemini Embedding 2をGemini APIとVertex AIでpreview提供すると発表した。GoogleはこれをGemini architectureベースで初のfully multimodal embedding modelであり、最もcapableなembedding modelだと説明している。
公式blogによると、Gemini Embedding 2はtext、image、video、audio、documentを単一のrepresentation spaceにマッピングする。さらに100以上のlanguage対応と、128、768、1536、3072といったflexible output dimensionを備え、developerがrecall、latency、storage costのバランスを現実的に調整できるようにした。
これはretrievalとrankingのworkloadにとって実質的なアップデートだ。search、RAG、recommendation、moderation、cross-media discoveryを構築するteamは、modalityごとに別々のembedding stackをつなぎ合わせがちだ。natively multimodalなmodelがあれば、その分断を減らし、複数のproduct surfaceにまたがるindexing pipelineを簡素化しやすくなる。
注目点
- text、image、video、audio、PDF workflowを一つのembedding spaceで扱えるため、retrieval architectureを簡素化しやすい。
- Gemini APIとVertex AIの両方でpreview提供されることで、Google Cloudユーザーの導入ハードルが下がる。
- flexible dimensionはcostとperformance tuningの実用的な調整ノブになる。
もっとも、現時点ではpreviewのため、pricing、limit、benchmark positioningは今後変わる可能性がある。それでも方向性は明確だ。GoogleはGeminiをgeneration model familyとしてだけでなく、multimodal retrievalのdefault platform layerとしても押し出そうとしている。text以外の情報を横断するenterprise searchやagent systemには大きな意味を持ちうる。
Primary sources: Google AI Developers on X、Google Blog。
Related Articles
Google DeepMindは2026年3月3日、Gemini 3.1 Flash-Liteを発表し、低価格と高速性を前面に出した。Google AI StudioとVertex AIでpreview提供され、高頻度・低遅延の開発ワークロードを主な対象とする。
GoogleはMarch 3, 2026、Gemini 3.1 Flash-LiteをGemini 3系で最速かつ最もコスト効率の高いモデルとして発表した。previewはGoogle AI StudioとVertex AIで始まり、価格は$0.25/1M input tokens、$1.50/1M output tokensだ。
Google AIはGemini 3.1 Flash-Liteの実運用例として、大量画像の仕分けや業務自動化シナリオを紹介した。Gemini API、Google AI Studio、Vertex AIのpreview導線も同時に示された。
Comments (0)
No comments yet. Be the first to comment!