NVIDIA×Google Cloud、96万基Rubinを視野にAIファクトリー拡張へ

Original: NVIDIA and Google Cloud Collaborate to Advance Agentic and Physical AI View original →

Read in other languages: 한국어English
AI Apr 24, 2026 By Insights AI 1 min read 1 views Source

NVIDIAとGoogle Cloudの発表を単なる提携ニュースとして読むと、肝心な部分を見落とす。重要なのは、エージェント時代の標準的なインフラ規模を両社がどこまで引き上げたかだ。Vera RubinベースのA5X、単一サイトで8万基、マルチサイトで96万基のRubin GPU、そしてagentic AIとphysical AIを同じ土台で回す構想。今回の話はそこに尽きる。

この数字が重いのは、インフラの目的が変わったからだ。以前はフロンティアモデルの学習が中心だったが、今は長時間推論、複数エージェント、ロボット開発、デジタルツインのような負荷が同時に膨らんでいる。NVIDIAはA5Xについて、前世代比で推論のトークン当たりコストを最大10分の1に下げ、メガワット当たりのトークン処理量を最大10倍に高めると説明する。これが実運用でも維持できれば、企業がエージェントを配備する採算線は大きく動く。

計算資源だけでなく、配備と保護の層も大きい。GoogleはBlackwellとBlackwell Ultra上で動くGeminiをGoogle Distributed Cloudでプレビュー提供し、さらにConfidential G4 VMで公開クラウド側にも機密実行を広げるという。プロンプト、モデル、微調整データを暗号化したまま扱えるなら、金融、医療、製造、公共のような規制産業でも本番導入の道が開く。ここが「面白いデモ」と「入れられるAI」の境目になる。

もう一つ見逃せないのがオープンモデルへの寄せ方だ。Nemotron 3 SuperはGemini Enterprise Agent Platformで使え、GoogleはNVIDIA NeMo RLで作ったmanaged reinforcement learning APIも載せた。次の企業向けエージェントは、単一の巨大モデルだけで完結しない。企業はクローズドモデル、オープンウェイト、ドメイン調整、用途別の強化学習を混ぜて使う。その前提で土台を組み始めた点が今回の本質だ。

そして最後にphysical AIがある。Omniverse、Isaac Sim、NIM microservices、Google Cloud Marketplaceを一つの流れにまとめ、会話AIから工場、設計、ロボット、デジタルツインへ重心を移した。コードエージェントも、産業シミュレーションも、現場ロボットも同じクラウド基盤に乗るなら、AIインフラはソフトウェア費用ではなく産業能力に近づく。今回の発表が示したのは、まさにその変化だ。

Share: Long

Related Articles

AI sources.twitter Apr 2, 2026 1 min read

NVIDIADCは2026年3月17日のX投稿で、Groq 3 LPXをVera Rubin platform向けのrack-scale low-latency inference acceleratorとして紹介した。NVIDIAの3月16日付press releaseとtechnical blogによれば、LPXは256基のLPU、128GBのon-chip SRAM、640 TB/sのscale-up bandwidthを備え、Vera Rubin NVL72と組み合わせてagentic AI向けのheterogeneous inference pathを形成する。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.