Google Cloud、毎分160億トークン時代 勝負はモデルよりエージェント基盤
Original: 7 highlights from Google Cloud Next ‘26 View original →
GoogleがCloud Next ’26で打ち出したメッセージは明快だ。AI競争はモデルのデモから、エージェント運用の競争へ移ったということだ。4月24日の総括記事でGoogleは、Cloud顧客の75%がAI製品を利用し、過去12カ月で1兆トークン超を処理した顧客が330社、さらに自社モデルの直接API利用は毎分160億トークンを超えたと説明した。これは単なる自慢の数字ではない。Googleは自社を、最先端モデルを出す会社というより、エージェントを作り、統治し、実際に動かす場所として位置づけようとしている。
その中心にあるのがGemini Enterprise Agent Platformだ。Googleによれば、これはモデルの構築とチューニング、エージェント統合、セキュリティ、DevOpsをひとつにまとめたエンドツーエンドの作業基盤だ。注目点は、利用の敷居を下げようとしていることだ。プラットフォーム内のAgent Studioはローコードで設計されており、開発者だけでなく業務部門でも自然言語を使ってエージェントを試せる。利用可能な選択肢として、Gemini 3.1 Pro、Gemini 3.1 Flash Image、Lyria 3に加え、AnthropicのClaude Opus 4.7も挙げられた。いまやモデルの選択肢の広さは、譲歩ではなく競争力そのものだ。
この発表が重いのは、クラウドAIの重心が変わっているからだ。1年前まで企業向けAIの話題は、試験導入やPoCが中心だった。今回はTPU、セキュリティエージェント、生産性ツール、開発者向け機能が一つの物語として並べられている。Googleが売ろうとしているのは個別機能ではない。社内データ、モデル、セキュリティ、配備、監視、権限管理までを束ねるAI運用面だ。モデル性能が候補を決める時代は続くが、それだけで契約が決まる段階ではなくなった。
企業が今知りたいのは別の点だ。エージェントが社内システムとどうつながるのか、誰が統制するのか、コストや遅延の条件が変わったときにモデルをどれだけ柔軟に切り替えられるのか、監査やコンプライアンスにどう対応するのか。Googleの総括記事は、その問いに対する答えとして読める。毎分160億トークンと330社の超大口利用者は規模を示す数字だ。だが、より重要なのは戦略の転換である。クラウドAIの勝負は、モデルの順位表から、ランタイム、ガバナンス、ワークフロー基盤へ移っている。一次情報はGoogleの総括記事を参照。
Related Articles
Googleは4月21日、Deep ResearchをGemini 3.1 Proベースへ引き上げ、MCP接続とMaxモードを加えた。Web検索、アップロード済みファイル、ライセンスデータを一つの調査フローにまとめたい金融・ライフサイエンス向けの動きだ。
Google Cloud Techは2026年4月10日のXで、MCP Toolbox for Databases 向け Java SDK を enterprise-grade agent integration の入口として再提示した。linked blog は、Spring Boot、transactional control、stateful service pattern を維持したまま、custom glue code なしで database と agent を MCP でつなげると主張している。
Google Cloud Techは2026年4月10日、BigQuery の autonomous embedding generation preview を紹介した。BigQuery は source text の変更に合わせて embedding column を自動更新し、そのまま vector index と AI.SEARCH の流れにつなげられる。
Comments (0)
No comments yet. Be the first to comment!