Meta·AMD, 최대 6GW AMD Instinct GPU 장기 계약 체결
Original: Meta and AMD Partner for Longterm AI Infrastructure Agreement View original →
Meta는 February 24, 2026, AMD와 장기 계약을 체결해 최대 6GW 규모의 AMD Instinct GPUs로 자사 AI infrastructure를 확대하겠다고 발표했다. 회사는 이번 계약을 단순한 component 구매가 아니라 hardware, software, systems roadmap을 함께 맞추는 multi-year collaboration으로 설명했다. 즉, Meta가 어떤 accelerators를 쓰느냐뿐 아니라 cluster 설계와 운영 방식 자체까지 AMD와 더 깊게 맞추겠다는 의미다.
AMD는 협력 범위가 Instinct GPUs, EPYC CPUs, rack-scale AI systems까지 이어진다고 밝혔다. Meta에 따르면 첫 GPU deployments를 지원하는 shipments는 second half of 2026부터 시작되며, 이전에 AMD와 함께 공개했던 Helios rack-scale architecture를 기반으로 한다. 이는 이번 계약이 단순한 단품 공급보다 rack 수준의 system design과 long-term capacity planning에 가깝다는 점을 보여준다.
왜 중요한가
- Meta는 single-vendor 의존도를 낮추고 AI compute stack을 다변화하려 한다.
- 이번 계약은 Meta Compute initiative의 일부로 제시됐다.
- 외부 partner 확대와 동시에 in-house MTIA silicon program도 계속 추진한다.
- 초기 GPU deployments는 second half of 2026부터 예정돼 있다.
Meta 입장에서 logic은 분명하다. training과 inference 수요가 커질수록 stable capacity 확보는 product 경쟁력 그 자체가 된다. 장기 계약은 공급 다변화, 가격 협상력, workload 요구를 hardware roadmap에 반영할 수 있는 여지를 준다. AMD에게도 이번 발표는 hyperscaler급 AI buildout의 중심에 더 깊이 들어간다는 의미가 있다.
실제 효과는 second half of 2026 deployments가 일정대로 진행되고, Meta가 원하는 performance와 efficiency를 확보하는지에 달려 있다. 그럼에도 이번 발표는 hyperscaler들이 AI stack을 단일 chip winner가 아니라 여러 vendor, custom silicon, rack-scale system design의 조합으로 재구성하고 있음을 잘 보여준다.
Related Articles
Meta는 AMD와의 장기 계약을 통해 최대 6GW 규모의 AMD Instinct GPU 용량을 확보한다고 밝혔다. 첫 출하는 2026년 하반기 Helios rack-scale 시스템에서 시작될 예정이다.
Meta는 March 11, 2026 향후 2년 안에 MTIA custom chip 4세대를 개발·배치하겠다고 밝혔다. 회사는 ranking, recommendation, GenAI inference를 위한 AI infrastructure 전략의 중심에 MTIA를 두고 있다.
Meta와 Arm은 AI 중심 data center에 맞춘 CPU를 여러 세대에 걸쳐 공동 개발한다고 밝혔다. 첫 제품인 Arm AGI CPU는 rack당 성능과 효율을 높이는 것이 목표이며, Meta는 accelerator를 넘어 custom silicon stack 전반을 더 깊게 통제하려는 방향을 드러냈다.
Comments (0)
No comments yet. Be the first to comment!