Google Cloud, 분당 160억 토큰 시대… 승부수는 모델 아닌 에이전트 스택
Original: 7 highlights from Google Cloud Next ‘26 View original →
Google이 Cloud Next ’26에서 내세운 핵심 메시지는 단순했다. 이제 AI 경쟁은 모델 데모가 아니라 에이전트 운영의 싸움이라는 것이다. 4월 24일 공개한 정리 글에서 Google은 Cloud 고객의 75%가 자사 AI 제품을 사용하고 있고, 지난 12개월 동안 1조 토큰을 넘게 처리한 고객이 330곳에 이르며, 자사 1차 모델의 직접 API 처리량이 분당 160억 토큰을 넘어섰다고 밝혔다. 이 숫자는 과시용 통계라기보다 포지셔닝에 가깝다. Google은 이제 스스로를 모델 공급자가 아니라, 에이전트를 만들고 통제하고 굴리는 운영 플랫폼으로 보이길 원한다.
중심에는 Gemini Enterprise Agent Platform이 있다. Google 설명대로라면 이 플랫폼은 모델 빌드와 튜닝, 에이전트 통합, 보안, DevOps를 한데 묶은 엔드투엔드 작업 공간이다. 흥미로운 점은 진입장벽을 낮추려는 시도다. 플랫폼 안의 Agent Studio는 로우코드 인터페이스로 설계돼, 개발자뿐 아니라 현업 팀도 자연어로 에이전트를 만들고 시험해볼 수 있다. Google은 Gemini 3.1 Pro, Gemini 3.1 Flash Image, Lyria 3는 물론 Anthropic Claude Opus 4.7까지 선택지로 제시했다. 이제 개방성은 마지못한 양보가 아니라 경쟁력의 일부다.
이 발표가 중요한 이유는 클라우드 AI의 무게중심이 바뀌고 있기 때문이다. 1년 전만 해도 기업 AI 기사는 파일럿과 PoC 이야기가 대부분이었다. 이번에는 TPU, 보안 에이전트, 생산성 도구, 개발자 플랫폼을 한 문장 안에 묶었다. Google이 팔려는 것은 기능 하나가 아니다. 기업 내부 데이터와 모델, 보안, 배포, 관측, 권한 통제를 하나로 엮는 AI 운영면이다. 모델 성능이 후보군을 정하는 시대는 계속되겠지만, 실제 계약을 닫는 질문은 이미 달라졌다.
기업이 지금 묻는 것은 다른 것이다. 에이전트가 내부 시스템과 어떻게 연결되는지, 누가 이를 통제하는지, 비용과 지연이 바뀌면 모델을 얼마나 쉽게 교체할 수 있는지, 정책과 감사 요구에 어떻게 대응하는지다. Google의 Cloud Next 정리 글은 바로 그 질문에 답하는 문서처럼 읽힌다. 분당 160억 토큰, 1조 토큰 고객 330곳이라는 수치는 규모를 보여준다. 더 중요한 결론은 따로 있다. 클라우드 AI의 승부가 모델 성능표에서 런타임, 거버넌스, 워크플로 인프라로 이동하고 있다는 점이다. 원문은 Google 글에서 볼 수 있다.
Related Articles
Google이 4월 21일 Deep Research를 Gemini 3.1 Pro 기반으로 끌어올리고 MCP 연결과 Max 모드를 붙였다. 웹 검색, 업로드 파일, 라이선스 데이터 소스를 한 흐름에서 묶어야 하는 금융·생명과학 팀을 겨냥한 변화다.
Google Cloud Tech는 2026년 4월 10일 X에서 MCP Toolbox for Databases용 Java SDK를 다시 부각하며 enterprise-grade agent integration 경로로 제시했다. 연결된 blog는 Spring Boot, transactional control, stateful service 패턴을 유지한 채 MCP로 database와 agent를 연결할 수 있다고 주장한다.
Google Cloud Tech는 2026년 4월 10일 BigQuery의 autonomous embedding generation preview를 소개했다. BigQuery는 source text가 바뀔 때 embedding column을 자동 갱신하고, 이후 vector index와 AI.SEARCH 흐름으로 바로 연결할 수 있게 한다.
Comments (0)
No comments yet. Be the first to comment!