MetaとNVIDIA、数百万台のGPUを擁するAI基盤パートナーシップを締結
NVIDIAは2026年2月17日、Metaとのマルチイヤー・マルチジェネレーション戦略的パートナーシップを正式発表した。このパートナーシップはMetaのハイパースケールデータセンターにNVIDIAのCPU、GPU、ネットワーキングを統合展開するもので、オンプレミス・クラウド・AI基盤を網羅する。
数百万台のGPU展開
パートナーシップの中核は、MetaのトレーニングおよびAI推論ワークロードに最適化されたデータセンターへの数百万台のNVIDIA BlackwellおよびRubin GPUの展開だ。Rubinプラットフォームは、Blackwellと比較して推論トークンコストを最大10分の1に削減し、MoEモデルのトレーニングに必要なGPU数を4分の1に減らす。
初の大規模Grace CPU単独展開
MetaはNVIDIAのArmベースGrace CPUをデータセンターで単独かつ大規模に展開する初事例となる。エネルギー効率向上を目的としており、2027年には次世代のNVIDIA Vera CPUへの移行も計画されている。
ネットワーキングとプライバシーコンピューティング
MetaはAIスケールのネットワーキングにNVIDIA Spectrum-Xイーサネットスイッチを導入する。またWhatsAppのプライベート処理にNVIDIA Confidential Computingを採用し、ユーザーデータの機密性を保ちながらAI機能を実現する。
Related Articles
HNがこのRAM shortage storyに反応した理由は、AI data center向けHBM需要がphones、laptops、handheldsの価格にもつながるという物理的な連鎖だった。
Googleは第8世代TPUを学習用8tと推論用8iに分けた。8tはpod当たりnearly 3xの計算性能と121 exaflopsを、8iは19.2 Tb/sの相互接続と最大5x低いオンチップ遅延を掲げ、エージェント時代に学習とサービングの要件が完全に分かれたことを示している。
今回の要点は新しい提携そのものではない。NVIDIAとGoogle CloudはA5X Rubin基盤を単一サイト8万基、マルチサイトで96万基まで拡張でき、推論コストと電力当たり処理量を前世代比で最大10倍改善できると示した。
Comments (0)
No comments yet. Be the first to comment!