Google、Developer Knowledge APIとMCP Serverを公開 Gemini Code Assistにチーム知識を接続
Original: Introducing the Developer Knowledge API and MCP Server View original →
Googleは2026年2月4日、Developer Knowledge API とオープンソースの MCP Server を公開し、Gemini Code Assist を開発チームの実際の技術文脈へより深く結び付ける方針を示した。狙いは、モデルを抽象的に賢くすることではなく、内部ドキュメント、ADR、コードスニペット、公開技術URLなど、チームがすでに持つ知識へアクセスしやすくすることにある。
公式説明によれば、開発者はURLリストから知識ソースを設定し、その後 API または MCP Server を使って IDE や AI agent workflow 内で関連情報を検索し、取り込み、活用できる。これは、コーディング支援ツールを実際のプロジェクト知識に接続する際に必要だった手作業の retrieval 実装を減らす狙いだ。
今回の追加要素
- 関連ドキュメントを検索して取り出せる Developer Knowledge API。
- 同じ知識レイヤーを IDE や AI agents に公開するオープンソース MCP Server。
- Gemini Code Assist を内部リソースや公開URLに合わせて調整しやすくする仕組み。
- custom developer workflow を組む際の統合作業を簡素化する設計。
この発表が重要なのは、coding agent の競争がもはやモデル単体の性能だけで決まらないからだ。実運用では、チーム固有の設計方針、アーキテクチャ、運用ガイド、コードベース周辺知識に根ざした回答が求められる。Googleはその課題を、モデルを大きくするのではなく、知識接続の層を整備することで解こうとしている。
さらにMCPを併記したことも意味が大きい。企業では複数のIDE、agent、内部ツールが混在するため、専用コネクタより標準化された接続層の価値が高い。今回の発表は、Gemini Code Assist向け機能であると同時に、AI開発ツールにおいて retrieval と interoperability が中核インフラになりつつあることを示している。
Source: Google Developers Blog
Related Articles
Google DeepMindはGemini 3.1 Flash-LiteがGemini APIとGoogle AI Studioでpreview提供されると発表した。同社はこれを最もcost-efficientなGemini 3 modelと位置づけ、低価格・高速性能・調整可能なthinking levelsを強調している。
GoogleはGemini APIとVertex AIでGemini Embedding 2のプレビュー提供を開始した。text、image、video、audio、documentを1つのembedding spaceに配置する、同社初のネイティブなマルチモーダル embedding システムだ。
GoogleはMarch 3, 2026、Gemini 3.1 Flash-LiteをGemini 3系で最速かつ最もコスト効率の高いモデルとして発表した。previewはGoogle AI StudioとVertex AIで始まり、価格は$0.25/1M input tokens、$1.50/1M output tokensだ。
Comments (0)
No comments yet. Be the first to comment!