Google Deep Research, Gemini 3.1 Pro·MCP 연결로 기업 조사 에이전트화
Original: Deep Research Max: a step change for autonomous research agents View original →
4월 21일 Google은 Deep Research Max를 "링크 모아주는 기능" 수준에서 한 단계 올렸다. 새 Max 모드는 Gemini 3.1 Pro 위에서 조사 계획을 세우고, 웹을 검색하고, 원격 MCP 서버를 호출하고, 사용자가 올린 파일을 읽는다. 사고 요약을 실시간으로 보여주는 기능도 포함됐다. 의미는 분명하다. 금융, 제약, 전략팀이 원하는 것은 채팅창 하나 더 늘어나는 일이 아니라 외부 웹, 라이선스 데이터, 내부 문서를 한 번에 묶는 조사 도구다.
Google 설명에 따르면 Deep Research는 Google Search, URL Context, Code Execution, File Search를 함께 쓰고, PDF·CSV·이미지·오디오·비디오까지 근거로 삼는다. 결과물도 이전보다 실무형이다. 차트와 인포그래픽을 바로 만들고, Max 모드는 지난해 12월 공개본보다 더 많은 소스를 뒤져 놓치기 쉬운 맥락을 잡는 데 초점을 둔다. 여기서 핵심은 막연한 성능 과시가 아니다. 더 많은 추론 비용과 검색 범위를 써서 조사 깊이를 확보하겠다는 뜻이다.
가장 큰 신호는 MCP 지원이다. Google은 조사 에이전트가 공개 웹에서 멈추지 말고 라이선스 데이터와 기업 시스템까지 들어가야 한다는 쪽에 베팅했다. 함께 언급된 파트너도 분명하다. FactSet, S&P Global, PitchBook이다. 이 조합은 첫 고객이 누구인지 보여준다. 투자 분석가, 기업개발팀, 컨설턴트, 규제 산업의 지식 노동자들이다. 소스 범위와 근거 품질이 곧 생산성인 집단을 정면으로 겨냥했다.
이번 기능이 유료 Gemini API 티어에서 퍼블릭 프리뷰로 열린 점도 중요하다. 소비자용 Gemini 앱 안의 기능 하나가 아니라 제품팀이 자기 도구에 심을 수 있는 부품이 되기 시작했기 때문이다. 앞으로 볼 지점은 세 가지다. 원격 MCP 서버 연결의 안정성, 라이선스 데이터 파트너 확대, 그리고 Deep Research Max가 실제 업무에서 조사 시간을 얼마나 줄여주느냐다.
Related Articles
Google은 AI 사업이 실험 단계를 넘어 운영 단계로 들어섰다고 주장한다. Cloud 고객의 75%가 AI 제품을 쓰고, 지난 12개월 동안 1조 토큰을 넘긴 고객이 330곳, 자사 모델 API 처리량은 분당 160억 토큰에 달했다며 Gemini Enterprise Agent Platform을 전면에 내세웠다.
Google DeepMind는 2026년 3월 26일 Gemini 3.1 Flash Live가 Gemini Live와 Google Search Live에 순차 적용되고, 개발자는 Google AI Studio에서 바로 사용할 수 있다고 밝혔다. Google은 이 모델을 자사 최고 품질의 audio model로 규정하며, 더 낮은 latency와 향상된 tonal understanding, 그리고 ComplexFuncBench Audio 90.8% 성능을 강조했다.
Google은 coding agents가 model training data cutoff 때문에 오래된 Gemini API 코드를 생성할 수 있다고 보고, 이를 해결하는 수단으로 Docs MCP와 Developer Skills를 함께 제시했다. 두 도구를 같이 쓰면 eval set에서 vanilla prompting 대비 96.3% pass rate와 63% fewer tokens per correct answer를 기록했다고 회사는 밝혔다.
Comments (0)
No comments yet. Be the first to comment!