MetaとArm、AI data center向け新クラスCPUを共同開発
Original: Meta Partners With Arm to Develop New Class of Data Center Silicon View original →
MetaとArmは2026年3月24日、AI最適化data center向けの新しいCPU群を共同開発すると発表した。今回の提携が示すのは、Metaがacceleratorだけでなくinfrastructure stackのより多くの部分を自前で設計しようとしていることだ。両社は、AI training、inference、そしてgeneral-purpose computingが同時に拡大するなかで、従来型data center CPUだけでは性能密度と効率の要求に応えにくくなっていると説明している。
両社は複数世代にわたるCPUロードマップを共同で進める計画で、最初の製品はArm AGI CPUとなる。ArmはこれをAI時代のために特別設計した初のdata center CPUと位置づけている。Metaによれば、このチップはlegacy CPUよりも高いrack当たり性能と優れた効率を目指しており、電力、冷却、設置面積が厳しく制約される大規模AI施設で意味を持つ。
今回の発表の要点
- このCPU計画は、AI workloadだけでなくMeta内部の一般computing需要も支えることを目的としている。
- Metaは第1世代Arm AGI CPUのlead partner兼co-developerを務める。
- 新CPUはMetaのMTIA siliconと組み合わせて動く前提で、既存のcustom stackを置き換えるというより拡張する位置づけだ。
- Metaは2026年中に、このCPU向けのboard設計とrack設計をOpen Compute Project経由で公開する方針を示した。
この最後の点は重要だ。Metaはこの取り組みを社内最適化だけで終わらせず、より広いhardware ecosystemにつなげる姿勢を見せている。ArmもArm AGI CPUをより広いAI ecosystemに提供するとしており、結果としてdata center事業者やサプライヤーが再利用できる設計資産になる可能性がある。
今回の発表は、custom silicon競争がacceleratorからCPU領域へ広がっていることも示している。これまで大手AI企業のhardware戦略はtraining chipやinference acceleratorに注目が集まりがちだったが、MetaとArmは、大規模AI deploymentにおいてCPUもorchestrationとsystem設計の中核だと主張している。特にrackレベルでの性能密度と電力効率が重要になっているという見方だ。
もっとも、Metaは今回の発表で具体的な出荷時期やbenchmark値までは示していない。実際のインパクトは今後の展開と性能データを見て判断する必要がある。それでも今回の提携は、Metaが次世代AIサービスを支えるcompute layerをより直接的に握ろうとしていること、そしてArmが自社architectureを大規模agentic AI infrastructureの中核候補に押し上げようとしていることを明確に示した。原文: Meta Newsroom.
Related Articles
MetaはMarch 11, 2026、今後2年でMTIA custom chipの4世代を開発・展開すると発表した。ranking、recommendation、GenAI inference workloadを支えるAI infrastructure戦略の中心にMTIAを据える構えだ。
Metaは2026年1月9日、Vistra、TerraPower、Okloとの契約を通じて2035年までに最大6.6 GWの新規・既存clean powerを支える計画を発表した。Prometheus superclusterを含むAI infrastructure向け電力確保が狙いだ。
Metaは2026年3月11日、MTIA 300からMTIA 500まで続くin-house AI chipのロードマップを公表した。Metaはcustom siliconを通じて、ranking、recommendation、そして特にGenAI inferenceのコスト構造を自社規模に最適化しようとしている。
Comments (0)
No comments yet. Be the first to comment!