Google Cloud、エージェント基盤とTPU、Workspace文脈を一つの企業スタックへ
Original: 7 highlights from Google Cloud Next ‘26 View original →
Google Cloud Next '26で本当に目立つのは、モデルやチップの単発発表ではない。2026年4月24日に公開された 総括記事 が示したのは、エージェントを作る、統制する、走らせる、業務文脈につなぐ、そして下の計算基盤まで支えるという一連の流れを一つの企業スタックとして束ねる発想だ。AIエージェントを単なる機能ではなく、企業の運用モデルとして扱い始めたと言っていい。
中心にあるのがGemini Enterprise Agent Platformだ。Googleはこれを、エージェントを構築し、統治し、拡張するためのエンドツーエンドのワークスペースと説明している。Gemini 3.1 Pro、Gemini 3.1 Flash Image、Lyria 3を同じ場に置き、さらに外部モデルの選択肢としてAnthropicのClaude Opus 4.7も加えた。加えて、Agent Studioというローコード環境で、開発者だけでなく業務部門も自然言語でエージェントを試せるようにした。ここが重要だ。導入のボトルネックがモデル性能そのものより、誰がどこでエージェントを作り、どう運用するかに移っているからだ。
運用側の部品も並ぶ。Gemini Enterpriseアプリでは、no-codeのAgent Designerでトリガー型ワークフローを作成できる。より複雑な処理は、long-running agentsがsecure cloud sandboxes内でバックグラウンド実行する。エージェントが増えた後の見張り台としてAgent Inboxも用意した。さらにWorkspace IntelligenceによってDocs、Drive、Meet、Gmailの間の文脈の壁を崩し、Ask Gemini in Chatから情報を引き出して、その場で会議設定や要約作成まで進める構想を示した。
下回りの強化も同時に進めた。Googleによれば、TPU 8tは学習向け、TPU 8iは推論向けで、TPU 8iは性能当たりコストが80%改善した。加えて、巨大スーパーコンピュータ接続用のVirgo Networkを公開し、Managed Lustreは毎秒10TBのデータ移動に対応するとした。エージェントが実務に入る段階では、賢さだけでなく遅延、コスト、データ移送量がそのまま製品力になる。Googleがチップとネットワークを同じ記事で前面に置いた理由はそこにある。
次の見どころは実行力だ。ここで示された部品群が単なる品ぞろえで終わるのか、それとも企業が本当に一体の本番基盤として扱えるのか。外部モデルの選択肢を保ちつつ、運用とコンテキストの統合を進められるなら、Google Cloudはモデル順位表より強い企業向けの論点を手にする。
Related Articles
重要なのは、GoogleがVertex AIを複数サービスの集合からgoverned agent platformへ移していることだ。Google Cloudの投稿は、Model Garden経由でGemini 3.1 Pro、Lyria 3、Gemma 4、Claude系を含む200+ modelsへアクセスできると説明する。
Googleは第8世代TPUを学習用8tと推論用8iに分けた。8tはpod当たりnearly 3xの計算性能と121 exaflopsを、8iは19.2 Tb/sの相互接続と最大5x低いオンチップ遅延を掲げ、エージェント時代に学習とサービングの要件が完全に分かれたことを示している。
HNはTPU 8tと8iを巨大な数値競争としてではなく、エージェント時代のインフラが学習用と推論用に分かれ始めた合図として読んだ。コメントも電力効率、メモリ壁、遅延の話に長く留まった。
Comments (0)
No comments yet. Be the first to comment!