Google, Developer Knowledge API와 MCP Server 공개... Gemini Code Assist에 팀 지식 연결
Original: Introducing the Developer Knowledge API and MCP Server View original →
Google은 2026년 2월 4일 Developer Knowledge API와 오픈소스 MCP Server를 공개하며, Gemini Code Assist를 팀의 실제 기술 문맥과 더 밀접하게 연결하겠다고 밝혔다. 목표는 단순하다. 사내 문서, ADR, 코드 스니펫, 공개 문서 URL에 흩어진 지식을 AI coding workflow 안으로 더 쉽게 끌어오게 만드는 것이다.
공식 설명에 따르면 개발자는 URL 목록만으로 지식 소스를 설정한 뒤, API 또는 MCP Server를 통해 관련 정보를 검색하고 찾아서 IDE나 AI agent에서 활용할 수 있다. 즉, 모델이 “더 많이 안다”기보다 개발팀이 이미 가진 지식을 더 정확하게 불러와 쓰도록 만드는 retrieval 계층을 제공하는 셈이다.
이번 발표의 핵심
- Gemini Code Assist를 내부 지식과 공개 기술 문서에 맞게 조정할 수 있다.
- Developer Knowledge API는 검색과 관련 정보 활용을 위한 프로그래밍 인터페이스를 제공한다.
- 오픈소스 MCP Server는 IDE와 AI agents가 같은 지식 소스를 표준 방식으로 연결하게 돕는다.
- 문서 수집과 agent 연동에 따르는 반복 작업을 줄여 custom workflow 구성이 쉬워진다.
이 발표가 중요한 이유는 coding agent 경쟁이 모델 성능만으로 끝나지 않기 때문이다. 실제 개발 환경에서는 팀 내부 위키, 아키텍처 결정 기록, 운영 가이드, API 문서처럼 모델 외부의 지식이 더 중요할 때가 많다. Google은 그 문제를 “모델을 더 크게 만드는 것”이 아니라 “팀 지식을 더 쉽게 연결하는 것”으로 풀려 하고 있다.
특히 MCP를 함께 언급한 점은 생태계 측면에서 의미가 있다. 많은 기업이 여러 IDE, agent, 내부 툴을 혼합해 쓰기 때문에 특정 제품 전용 커넥터보다 표준화된 지식 연결 계층이 더 유용하다. Google의 이번 발표는 Gemini Code Assist를 넘어, 기업형 developer workflow 전체에서 retrieval와 agent interoperability가 핵심 경쟁력이 되고 있음을 보여준다.
Source: Google Developers Blog
Related Articles
Google DeepMind는 Gemini 3.1 Flash-Lite가 Gemini API와 Google AI Studio를 통해 preview로 제공된다고 밝혔다. 회사는 이를 가장 cost-efficient한 Gemini 3 모델로 소개하며, 더 낮은 가격과 더 빠른 성능, 조절 가능한 thinking levels를 강조했다.
Google이 Gemini API와 Vertex AI를 통해 Gemini Embedding 2를 preview로 공개했다. 이 모델은 text, image, video, audio, document를 하나의 embedding space에 넣는 Google의 첫 네이티브 멀티모달 embedding 시스템이다.
Google은 March 3, 2026 Gemini 3.1 Flash-Lite를 공개하며 가장 빠르고 비용 효율적인 Gemini 3 계열 모델이라고 밝혔다. 이 모델은 Google AI Studio와 Vertex AI에서 preview로 제공되며, 가격은 $0.25/1M input tokens와 $1.50/1M output tokens다.
Comments (0)
No comments yet. Be the first to comment!