Google Deep Research、Gemini 3.1 ProとMCP接続で企業調査エージェント化
Original: Deep Research Max: a step change for autonomous research agents View original →
4月21日にGoogleが出したのは、リンク収集機能の延長ではない。Deep Research MaxはGemini 3.1 Pro上で調査計画を立て、Webを検索し、リモートMCPサーバーにアクセスし、アップロードされた資料を読み込みながら進む。思考の要約を逐次表示する点も含め、狙いは明確だ。金融、製薬、事業戦略の現場が欲しいのは雑談AIではなく、公開Webと社内・契約データを一つにつなぐ調査エージェントである。
Googleによれば、Deep ResearchはGoogle Search、URL Context、Code Execution、File Searchを組み合わせ、PDF、CSV、画像、音声、動画まで根拠に使える。出力も実務寄りになった。チャートとインフォグラフィックをそのまま生成し、Maxモードは昨年12月版より多くのソースを参照して見落としやすい差分を拾うという。ここで重要なのは曖昧な高性能アピールではない。調査の深さに、より多くの推論コストと検索幅を割く設計へ切った点だ。
一番大きい信号はMCP対応である。Googleは、調査エージェントが公開Webで止まらず、ライセンスデータや企業システムにも届くべきだと示した。協業先としてFactSet、S&P Global、PitchBookを挙げたのも象徴的で、狙う初期ユーザーが投資家、事業開発、コンサル、規制産業の知識労働者であることを隠していない。ソースの厚みそのものを商品価値にしようとしている。
しかも今回は有料のGemini APIティアでパブリックプレビューが始まった。消費者向けGeminiアプリの機能追加ではなく、各社が自前の業務ツールへ組み込める部品になり始めたということだ。次に見るべき点は三つある。リモートMCP接続の安定性、ライセンスデータ連携の広がり、そしてDeep Research Maxが実務の調査時間をどこまで削れるかだ。
Related Articles
GoogleはAI事業が実験段階を 넘어運用段階に入ったと打ち出した。Cloud顧客の75%がAI製品を使い、過去12カ月で1兆トークン超を処理した顧客が330社、モデルAPI流量は毎分160億トークンに達したとして、Gemini Enterprise Agent Platformを本格投入した。
GitHubは2026年3月31日のX投稿で、programmable executionがAI applicationのinterfaceになりつつあると強調し、3月10日のCopilot SDKブログ記事を再度案内した。GitHubはSDKがproduction-testedなplanning・execution engineを公開し、MCPベースのcontext groundingとproduct内へのagent workflow埋め込みを可能にすると説明している。
Google DeepMindは2026年3月26日、Gemini 3.1 Flash LiveをGemini LiveとGoogle Search Liveへ順次展開し、開発者はGoogle AI Studioから利用を始められると発表した。Googleはこれを自社最高品質のaudio modelと位置づけ、低latency、向上したtonal understanding、ComplexFuncBench Audio 90.8%を打ち出している。
Comments (0)
No comments yet. Be the first to comment!