MetaとAMD、最大6GW規模のAIインフラ長期提携を発表

Original: Meta and AMD Announce Multi-Year AI Infrastructure Agreement Up to 6GW View original →

Read in other languages: 한국어English
AI Feb 25, 2026 By Insights AI 1 min read 1 views Source

MetaとAMDの長期AIインフラ提携

Metaは2026年2月24日、AIインフラを強化するためAMDと長期契約を締結し、最大6GW規模のAMD Instinct GPUを導入すると発表した。Metaはこの取り組みを、次世代AIモデルと「personal superintelligence」実現に向けた中核投資と位置づけている。

契約の範囲はGPU供給にとどまらない

公開情報によれば、今回の提携はハードウェア調達だけでなく、シリコン、システム、ソフトウェアの各ロードマップを連携させる構成になっている。Metaはインフラスタック全体の統合度を高め、ソフトウェアとハードウェアの共同最適化を加速する狙いだ。AMD側も、Instinct GPU、EPYC CPU、ラックスケールAIシステムにまたがる複数世代の協業であると説明している。

初期GPU展開向けの出荷は2026年後半に開始予定で、MetaとAMDが昨年のOpen Compute Project Global Summitで示したHeliosラックスケールアーキテクチャを基盤にするとしている。

Meta Computeとポートフォリオ型戦略

Metaは本契約を「Meta Compute」戦略の一部と明示した。狙いは、単一ベンダー依存を避け、複数パートナーのハードウェアと自社MTIA(Meta Training and Inference Accelerator)シリコンを組み合わせることで、柔軟性と耐障害性の高いインフラを構築することにある。学習と推論の需要が急増する局面で、供給安定性と性能最適化を同時に確保するための設計だ。

業界的な意味

この発表は、フロンティアAI競争がモデル性能だけでなく、電力・チップ・ラック設計・運用ソフトウェアを含むインフラ全体の競争へ移行していることを示している。6GWという規模は、調達だけでなくデータセンター運用と最適化まで見据えた長期戦略を意味する。Metaにとっては計算基盤の多様化、AMDにとっては大規模AI展開でのプレゼンス拡大という双方の戦略が一致した提携といえる。

参考: Meta Newsroom発表

Share:

Related Articles

AI 11h ago 1 min read

Metaはnext-gen AIの拡張にはcustom siliconが重要だとしてMeta Training and Inference Accelerator(MTIA)のロードマップを公開した。従来のchip cycleより速いmodel architectureの変化に対応するため、2年間で4世代を進めたと説明している。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.