Gemini Embedding 2 GA, 5개 modality 검색을 하나의 vector로
Original: Gemini Embedding 2 is generally available through Gemini API and Gemini Enterprise Agent Platform View original →
tweet가 드러낸 점
Google AI Studio는 Gemini Embedding 2를 general availability로 올리며 multimodal retrieval을 전면에 세웠다. 핵심 문장은 Gemini Embedding 2 is now generally available via the Gemini API and Gemini Enterprise Agent Platform. Search and understand semantic relationships across text, image, video, audio, and documents without complex, fragmented pipelines. 이다.
Google AI Studio는 Gemini developer-facing channel이다. 따라서 이 post는 search, recommendation, RAG, agent memory 아래 어떤 embedding model을 둘지 고르는 builder를 향한다. 중요한 변화는 범위다. tweet는 text, image, video, audio, documents라는 5개 input type을 하나의 embedding layer로 묶는다고 설명한다.
Google embedding work의 배경
Google의 Gemini Embedding 자료는 이 model family를 multilingual, multimodal application을 위한 retrieval primitive로 다룬다. 이전 Gemini Embedding 문서는 긴 input, configurable output dimension, 여러 API surface 지원을 강조했다. 이번 tweet는 운영 측면의 signal을 더한다. Gemini Embedding 2가 Gemini API와 Gemini Enterprise Agent Platform에서 GA라는 점이다.
embedding은 눈에 보이는 feature보다 infrastructure에 가깝다. 문서, 이미지, transcript, video-derived context를 한 번 embedding한 뒤 model을 바꾸려면 대규모 corpus re-indexing과 ranking threshold 조정이 필요하다. GA label은 Gemini Embedding 2를 실험용이 아니라 production candidate로 검토할 근거를 높인다.
enterprise angle도 중요하다. agent platform은 slide deck, support screenshot, meeting audio, PDF, product video처럼 messy business data를 기억하고 찾아야 한다. 하나의 multimodal embedding path는 routing complexity를 줄일 수 있다. 하지만 evaluation work가 사라지는 것은 아니다. team은 recall test, language-specific check, latency measurement, cost comparison을 specialized text 또는 vision embedder와 비교해야 한다.
다음 관전점은 migration guidance다. model ID, older embedder deprecation timeline, index-size 변화, mixed-media enterprise corpus benchmark가 필요하다. source tweet는 GA signal이고, production buyer에게는 docs와 model card가 re-embedding 시점을 결정하는 기준이 될 것이다.
Sources: X source tweet · linked source
Related Articles
Google은 2026년 3월 26일 Search Live를 AI Mode 제공 지역 전체로 확대했다. 이번 rollout은 voice와 camera 기반 search를 200개 이상 국가·지역으로 넓히고, Gemini 3.1 Flash Live를 실제 Search 인터페이스에 깊게 연결했다는 점에서 중요하다.
Google이 Gemini in Chrome에 Skills를 넣어 반복 prompt를 한 번 저장하고 현재 page나 선택한 tabs에서 다시 실행하게 했다. Mac, Windows, ChromeOS의 English-US desktop 사용자부터 rolling out되며 calendar 추가나 email 발송 같은 작업에는 확인 절차가 붙는다.
Google은 2026년 3월 26일 Search Live를 AI Mode가 이미 제공되는 모든 언어와 국가로 확대한다고 밝혔다. 200개+ 국가와 지역으로 넓어지는 이번 rollout은 Gemini 3.1 Flash Live를 기반으로 search를 더 conversational하고 voice-first하며 camera-aware한 경험으로 밀어 올린다.
Comments (0)
No comments yet. Be the first to comment!