Google、multimodal retrieval向けGemini Embedding 2をpreview公開
Original: Start building with Gemini Embedding 2, our most capable and first fully multimodal embedding model built on the Gemini architecture. Now available in preview via the Gemini API and in Vertex AI. View original →
Google AI Developersは2026年3月10日、XでGemini Embedding 2をGemini APIとVertex AIでpreview提供すると発表した。GoogleはこれをGemini architectureベースで初のfully multimodal embedding modelであり、最もcapableなembedding modelだと説明している。
公式blogによると、Gemini Embedding 2はtext、image、video、audio、documentを単一のrepresentation spaceにマッピングする。さらに100以上のlanguage対応と、128、768、1536、3072といったflexible output dimensionを備え、developerがrecall、latency、storage costのバランスを現実的に調整できるようにした。
これはretrievalとrankingのworkloadにとって実質的なアップデートだ。search、RAG、recommendation、moderation、cross-media discoveryを構築するteamは、modalityごとに別々のembedding stackをつなぎ合わせがちだ。natively multimodalなmodelがあれば、その分断を減らし、複数のproduct surfaceにまたがるindexing pipelineを簡素化しやすくなる。
注目点
- text、image、video、audio、PDF workflowを一つのembedding spaceで扱えるため、retrieval architectureを簡素化しやすい。
- Gemini APIとVertex AIの両方でpreview提供されることで、Google Cloudユーザーの導入ハードルが下がる。
- flexible dimensionはcostとperformance tuningの実用的な調整ノブになる。
もっとも、現時点ではpreviewのため、pricing、limit、benchmark positioningは今後変わる可能性がある。それでも方向性は明確だ。GoogleはGeminiをgeneration model familyとしてだけでなく、multimodal retrievalのdefault platform layerとしても押し出そうとしている。text以外の情報を横断するenterprise searchやagent systemには大きな意味を持ちうる。
Primary sources: Google AI Developers on X、Google Blog。
Related Articles
Googleは4月21日、Deep ResearchをGemini 3.1 Proベースへ引き上げ、MCP接続とMaxモードを加えた。Web検索、アップロード済みファイル、ライセンスデータを一つの調査フローにまとめたい金融・ライフサイエンス向けの動きだ。
GoogleはAI事業が実験段階を 넘어運用段階に入ったと打ち出した。Cloud顧客の75%がAI製品を使い、過去12カ月で1兆トークン超を処理した顧客が330社、モデルAPI流量は毎分160億トークンに達したとして、Gemini Enterprise Agent Platformを本格投入した。
4月24日のGemini Dropは、新モデル単体よりも日常利用の囲い込みが本題だ。Mac向けネイティブアプリ、Notebooks統合、Personal Intelligenceの拡大、無料の3分Lyria 3 Pro、対話型ビジュアルでGeminiは常駐アシスタントに近づく。
Comments (0)
No comments yet. Be the first to comment!