Google、ML投資の過半をCloudへ Geminiが実験から本番運用へ
Original: Cloud Next ‘26: Momentum and innovation at Google scale View original →
GoogleがCloud Next 2026で示したのは、単なる新製品紹介より大きい流れだ。企業向けAIが実験段階から本番運用の段階へ移っているという宣言に近い。Sundar Pichaiの4月22日記事によると、Googleの自社モデルは顧客による直接API利用で毎分160億トークン超を処理しており、前四半期の100億から増えた。さらに2026年の機械学習計算投資の過半をCloud事業に振り向ける見通しだという。
需要の伸びも強い。GoogleはGemini Enterpriseの有料月間アクティブユーザーが第1四半期に前四半期比40%増えたと記した。ここで同社が強調した次の課題はアクセス権ではなく運用だ。顧客の問いは、エージェントを1つ作れるかではない。何千ものエージェントをどう統制し、どう最適化するかに移っている。その答えとして打ち出したのがGemini Enterprise Agent Platformであり、Googleはこれをエージェント構築、統制、拡張、最適化のための安全な全層基盤として位置づける。
インフラの話も大きい。Googleは第8世代TPUを二系統で投入する。学習向けのTPU 8tは、単一のスーパーポッドで9,600個のTPUと2ペタバイトの共有高帯域メモリまで拡張可能だという。推論向けのTPU 8iは、単一ポッドで1,152個のTPUを接続し、オンチップSRAMを3倍に増やして大規模エージェント運用に必要な低遅延と高スループットを狙う。GoogleはTPU 8tがIronwood比で3倍の処理性能と最大2倍の性能電力比を出すとしている。
安全保障の数字も並んだ。Googleによると、同社のSecurity Operations Centerエージェントは毎月数万件の非構造化脅威レポートをトリアージし、脅威対応時間を90%以上短縮している。社内開発では新規コードの75%がAI生成で、エンジニア承認のうえで採用されているという。昨年秋の50%からさらに上がった。Googleは、自社が売ろうとしている運用モデルをすでに内部で回していることを示したいのだろう。
競争の軸も見えてきた。Googleが売りたいのはモデル単体ではない。エージェントを本番システムへ載せて回す企業向けの制御面、セキュリティ基盤、計算インフラの束だ。Cloud Nextで示された数字は、市場がデモの巧さよりも運用規模を支えられる会社を評価し始めていることを物語っている。
Related Articles
Microsoftは2026年から2028年にかけてThailandの cloud・AI infrastructure にUS$1 billion超を投じる方針を示した。発表ではインフラ投資に加え、規制対話、e-commerce向け generative AI 実証、人材・startup支援まで含む包括計画が打ち出された。
TNWは、GoogleがMarvellと2種類のAI chipを協議していると報じた。signed contractはまだないが、memory processing unitとinference向けTPUの構想は、AIコストの重心がtrainingからinferenceへ移ったことを示す。
これは単なる大型調達ではない。TechCrunchによると、Googleは3500億ドル評価でまず100億ドルを入れ、条件達成でさらに300億ドルを追加し、今後5年で5GWの新規計算資源も供給する。
Comments (0)
No comments yet. Be the first to comment!