Google, Gemini Embedding 2 public preview 시작... 첫 natively multimodal embedding 모델
Original: Gemini Embedding 2 View original →
무엇이 공개됐나
Google은 2026년 3월 10일 Gemini Embedding 2를 public preview로 공개했다. 회사는 이를 자사의 첫 natively multimodal embedding model로 설명하며, text만이 아니라 image와 text·image·chart가 함께 들어간 mixed multimodal document까지 하나의 embedding space에서 처리할 수 있다고 밝혔다. 예로는 text와 image, chart가 섞인 PDF 문서가 제시됐다.
이 발표의 핵심은 retrieval과 search 파이프라인의 단순화다. 기존에는 text embedding과 image embedding을 따로 운영하거나 cross-modal 변환 계층을 추가하는 경우가 많았다. Google은 Gemini Embedding 2가 이런 분리된 흐름 대신 하나의 모델로 multimodal retrieval을 구성할 수 있게 해준다고 주장한다. multimodal RAG, visual search, document search, recommendation workload에 특히 직접적인 의미가 있다.
성능과 migration 관점
Google은 Gemini Embedding 2가 text benchmark 점수를 62.3에서 68.32로, image benchmark 점수를 53.3까지 끌어올렸다고 밝혔다. 동시에 가격과 vector dimensions는 기존 Gemini Embedding과 동일하게 유지한다고 설명했다. 이는 기존 embedding stack을 운영하던 팀에게 중요한 포인트다. 성능 향상은 얻되, index schema나 비용 모델을 크게 바꾸지 않고 migration할 수 있기 때문이다.
멀티모달 문서를 네이티브하게 다룰 수 있다는 점도 크다. 기업 문서는 순수 text가 아니라 screenshot, chart, slide, image annotation이 섞여 있는 경우가 많다. Google은 이런 실제 문서 구조를 embedding 단계에서 그대로 반영하는 것이 retrieval 품질 향상으로 이어질 수 있다고 보고 있다.
왜 중요한가
Gemini Embedding 2는 flashy한 chatbot 발표는 아니지만, AI product의 기반 계층에서 매우 중요한 변화다. 좋은 generation보다 먼저 필요한 것은 좋은 retrieval인 경우가 많다. Google의 이번 발표는 multimodal RAG가 더 이상 별도 연구 과제가 아니라 production search stack의 기본 기능으로 이동하고 있음을 보여준다.
출처: Google
Related Articles
Google이 Gemini API와 Vertex AI를 통해 Gemini Embedding 2를 preview로 공개했다. 이 모델은 text, image, video, audio, document를 하나의 embedding space에 넣는 Google의 첫 네이티브 멀티모달 embedding 시스템이다.
Google은 March 3, 2026 Gemini 3.1 Flash-Lite를 공개하며 가장 빠르고 비용 효율적인 Gemini 3 계열 모델이라고 밝혔다. 이 모델은 Google AI Studio와 Vertex AI에서 preview로 제공되며, 가격은 $0.25/1M input tokens와 $1.50/1M output tokens다.
Google AI Developers는 Gemini Embedding 2를 Gemini API와 Vertex AI에서 preview로 제공한다고 밝혔다. 회사는 이를 Gemini architecture 기반의 첫 fully multimodal embedding model이자 가장 capable한 embedding model로 소개했다.
Comments (0)
No comments yet. Be the first to comment!