MetaとNVIDIA、数百万台のGPUを擁するAI基盤パートナーシップを締結
NVIDIAは2026年2月17日、Metaとのマルチイヤー・マルチジェネレーション戦略的パートナーシップを正式発表した。このパートナーシップはMetaのハイパースケールデータセンターにNVIDIAのCPU、GPU、ネットワーキングを統合展開するもので、オンプレミス・クラウド・AI基盤を網羅する。
数百万台のGPU展開
パートナーシップの中核は、MetaのトレーニングおよびAI推論ワークロードに最適化されたデータセンターへの数百万台のNVIDIA BlackwellおよびRubin GPUの展開だ。Rubinプラットフォームは、Blackwellと比較して推論トークンコストを最大10分の1に削減し、MoEモデルのトレーニングに必要なGPU数を4分の1に減らす。
初の大規模Grace CPU単独展開
MetaはNVIDIAのArmベースGrace CPUをデータセンターで単独かつ大規模に展開する初事例となる。エネルギー効率向上を目的としており、2027年には次世代のNVIDIA Vera CPUへの移行も計画されている。
ネットワーキングとプライバシーコンピューティング
MetaはAIスケールのネットワーキングにNVIDIA Spectrum-Xイーサネットスイッチを導入する。またWhatsAppのプライベート処理にNVIDIA Confidential Computingを採用し、ユーザーデータの機密性を保ちながらAI機能を実現する。
Related Articles
MetaとNVIDIAが2月17日、複数年・複数世代にわたる戦略的AIインフラパートナーシップを発表。BlackwellおよびRubin GPU数百万基とGrace CPUの史上初の大規模単独展開を含み、Metaの2028年までの米国内6,000億ドル投資計画の一環。
NVIDIAが次世代AI計算プラットフォームVera Rubin NVL72の詳細仕様を公開。Rubin GPUの推論性能はBlackwell GB200の5倍、1トークンあたりのコストは10分の1に削減。2026年後半に出荷開始予定。
MetaとNVIDIAが2026年2月17日、多年間・多世代にわたる戦略的AI基盤パートナーシップを発表。MetaはBlackwell・Rubin GPUを数百万台、Grace CPUを独立サーバーとして初大規模展開する。契約規模は約500億ドルと推定。
Comments (0)
No comments yet. Be the first to comment!