Google Research는 2026년 3월 12일 도시 지역 flash flood를 최대 24시간 전에 예측하는 기능을 Flood Hub에 확대했다고 밝혔다. 회사는 Groundsource와 Gemini를 활용해 뉴스 보도에서 과거 침수 이벤트를 추출해 모델을 학습시켰다고 설명했다.
#gemini
RSS FeedGoogle은 2026년 3월 17일, Personal Intelligence를 미국에서 AI Mode in Search, Gemini app, Gemini in Chrome으로 확대한다고 밝혔다. 이 기능은 Gmail과 Google Photos 같은 서비스를 연결해 더 개인화된 shopping, travel, troubleshooting 응답을 제공하며, Google은 free-tier 사용자도 사용할 수 있다고 설명했다.
Google는 Mar 17, 2026 agent workflow를 위한 Gemini API 업데이트를 공개했다. 이번 변경으로 built-in tool과 custom function을 한 request에서 함께 쓰고, tool output을 context에 유지하며, Gemini 3에서 Maps grounding까지 활용할 수 있게 됐다.
Google은 2026년 3월 3일 Gemini 3.1 Flash-Lite를 공개하고 이를 Gemini 3 시리즈 중 가장 빠르고 비용 효율적인 모델로 소개했다. 이 모델은 Google AI Studio의 Gemini API와 Vertex AI에서 preview로 제공되며, $0.25/1M input tokens와 $1.50/1M output tokens 가격, 2.5 Flash 대비 2.5배 빠른 Time to First Answer Token, 45% 높은 output speed를 전면에 내세운다.
Google DeepMind는 X에서 Gemini Embedding 2를 Gemini API와 Vertex AI를 통해 preview로 제공한다고 밝혔다. 이 모델은 Gemini architecture 기반의 첫 fully multimodal embedding model로, text·image·video·audio·documents 검색 계층을 하나로 묶는 것을 목표로 한다.
Google은 Gemini API 개발자를 위해 Project Spend Caps, 개편된 Usage Tiers, 새 billing dashboard를 AI Studio에 추가했다. Paid usage로 넘어가는 팀이 비용과 확장 조건을 더 예측 가능하게 관리하도록 설계된 업데이트다.
Google DeepMind는 2026년 3월 3일 Gemini 3.1 Flash-Lite를 업데이트하며 대량·저지연 워크로드용 모델로 제시했다. 회사는 128k input, 8k output, multimodal 입력, native audio generation, 그리고 $0.10/$0.40 수준의 저가 token pricing을 강조했다.
Google은 2026년 3월 12일 Ask Maps를 미국과 인도의 Android·iOS에서 순차 배포하고 desktop도 곧 지원한다고 밝혔다. 같은 업데이트에는 3D route context, alternate route tradeoff 안내, 도착 단계 지원을 강화한 Immersive Navigation도 포함됐다.
Google는 Google AI Ultra·Pro subscribers를 대상으로 Docs, Sheets, Slides, Drive용 Gemini beta 기능 rollout을 시작한다. Gemini가 파일·이메일·웹을 바탕으로 작업물을 만들고 편집할 수 있게 되며, Drive에는 AI Overview와 Ask Gemini 기능이 추가된다.
Google AI는 2026-03-13 X 게시물에서 Gemini가 Google Maps의 질문응답과 경로 계획 방식을 바꾸고 있다고 설명했다. Google 공식 글은 conversational place discovery용 Ask Maps와 시각·문맥 기반 안내용 Immersive Navigation을 함께 소개한다.
Google은 2026년 2월 4일 Developer Knowledge API와 오픈소스 MCP Server를 소개했다. 이 도구들은 문서, ADR, 코드 스니펫, 공개 URL 같은 팀 지식을 Gemini Code Assist와 AI agent workflow에 연결하는 것을 단순화하는 데 초점을 둔다.
Google이 Gemini API와 Vertex AI를 통해 Gemini Embedding 2를 preview로 공개했다. 이 모델은 text, image, video, audio, document를 하나의 embedding space에 넣는 Google의 첫 네이티브 멀티모달 embedding 시스템이다.