Google、multimodal retrieval向けGemini Embedding 2をpreview公開
Original: Start building with Gemini Embedding 2, our most capable and first fully multimodal embedding model built on the Gemini architecture. Now available in preview via the Gemini API and in Vertex AI. View original →
Google AI Developersは2026年3月10日、XでGemini Embedding 2をGemini APIとVertex AIでpreview提供すると発表した。GoogleはこれをGemini architectureベースで初のfully multimodal embedding modelであり、最もcapableなembedding modelだと説明している。
公式blogによると、Gemini Embedding 2はtext、image、video、audio、documentを単一のrepresentation spaceにマッピングする。さらに100以上のlanguage対応と、128、768、1536、3072といったflexible output dimensionを備え、developerがrecall、latency、storage costのバランスを現実的に調整できるようにした。
これはretrievalとrankingのworkloadにとって実質的なアップデートだ。search、RAG、recommendation、moderation、cross-media discoveryを構築するteamは、modalityごとに別々のembedding stackをつなぎ合わせがちだ。natively multimodalなmodelがあれば、その分断を減らし、複数のproduct surfaceにまたがるindexing pipelineを簡素化しやすくなる。
注目点
- text、image、video、audio、PDF workflowを一つのembedding spaceで扱えるため、retrieval architectureを簡素化しやすい。
- Gemini APIとVertex AIの両方でpreview提供されることで、Google Cloudユーザーの導入ハードルが下がる。
- flexible dimensionはcostとperformance tuningの実用的な調整ノブになる。
もっとも、現時点ではpreviewのため、pricing、limit、benchmark positioningは今後変わる可能性がある。それでも方向性は明確だ。GoogleはGeminiをgeneration model familyとしてだけでなく、multimodal retrievalのdefault platform layerとしても押し出そうとしている。text以外の情報を横断するenterprise searchやagent systemには大きな意味を持ちうる。
Primary sources: Google AI Developers on X、Google Blog。
Related Articles
Google DeepMindは2026年3月3日、Gemini 3.1 Flash-Liteを発表し、低価格と高速性を前面に出した。Google AI StudioとVertex AIでpreview提供され、高頻度・低遅延の開発ワークロードを主な対象とする。
GoogleはMarch 3, 2026、Gemini 3.1 Flash-LiteをGemini 3系で最速かつ最もコスト効率の高いモデルとして発表した。previewはGoogle AI StudioとVertex AIで始まり、価格は$0.25/1M input tokens、$1.50/1M output tokensだ。
Googleの2026年2月Geminiアップデートは、Gemini 3.1 Pro、Deep Think、Nano Banana 2、Veo Templates、新しいCanvas機能をまとめて投入した。今回のdropは、Gemini appを単なるchat surfaceではなく、reasoning、image、music、video workflowsの前面インターフェースとして強化する動きだ。
Comments (0)
No comments yet. Be the first to comment!