Meta와 Arm, AI data center용 차세대 CPU 공동 개발
Original: Meta Partners With Arm to Develop New Class of Data Center Silicon View original →
Meta와 Arm은 2026년 3월 24일, AI 최적화 data center를 겨냥한 새로운 CPU 계열을 공동 개발한다고 발표했다. 이번 협력의 핵심은 Meta가 accelerator뿐 아니라 infrastructure stack의 더 많은 부분을 직접 설계하려 한다는 점이다. 두 회사는 AI training, inference, 그리고 general-purpose computing이 동시에 커지면서 기존 data center CPU만으로는 성능 밀도와 효율 요구를 맞추기 어려워지고 있다고 설명했다.
양사는 여러 세대에 걸친 CPU 로드맵을 함께 개발할 계획이다. 첫 제품은 Arm AGI CPU로, Arm은 이를 AI 시대를 위해 특별히 설계한 첫 data center CPU라고 소개했다. Meta는 이 칩이 legacy CPU보다 더 높은 rack당 성능과 더 나은 효율을 제공하도록 설계됐다고 밝혔다. 이는 전력, 냉각, 설치 공간이 빠듯한 대형 AI 시설에서 특히 중요한 지표다.
발표에서 드러난 포인트
- 이 프로그램은 AI workload뿐 아니라 Meta 내부의 일반 computing 수요까지 함께 지원하는 것이 목표다.
- Meta는 첫 Arm AGI CPU 세대의 lead partner이자 co-developer 역할을 맡는다.
- 새 CPU는 Meta의 MTIA silicon과 함께 동작하도록 설계돼 기존 custom stack을 대체하기보다 확장하는 성격이 강하다.
- Meta는 2026년 안에 이 CPU용 board와 rack 설계를 Open Compute Project를 통해 공개할 계획이라고 밝혔다.
이 마지막 지점은 특히 의미가 있다. Meta는 이 프로젝트를 단순한 내부 최적화에만 묶어두지 않겠다는 신호를 보냈고, Arm 역시 Arm AGI CPU를 더 넓은 AI ecosystem에 제공하겠다고 밝혔다. 즉, 특정 기업 전용 칩에 그치지 않고, data center 운영자와 공급망 전반이 재사용할 수 있는 설계 자산으로 연결하려는 의도가 읽힌다.
이번 발표는 custom silicon 경쟁이 accelerator에서 CPU까지 넓어지고 있음을 보여준다. 지금까지 대형 AI 기업의 하드웨어 전략은 주로 training chip과 inference accelerator에 집중돼 있었지만, Meta와 Arm은 대규모 AI deployment에서 CPU 역시 orchestration과 system 설계의 핵심 요소라고 주장하고 있다. 특히 rack 수준의 성능 밀도와 전력 효율을 높이는 것이 중요한 시점이라는 판단이다.
다만 Meta는 이번 공지에서 구체적인 출시 시점이나 benchmark 수치를 공개하지는 않았다. 실제 영향력은 추후 배포 일정과 성능 데이터가 나와야 더 정확히 판단할 수 있다. 그럼에도 이번 발표는 Meta가 차세대 AI 서비스를 떠받칠 compute layer를 더 직접 통제하려 하고, Arm은 자사 architecture를 대규모 agentic AI infrastructure의 핵심 선택지로 올리려 한다는 메시지를 분명히 보여준다. 원문: Meta Newsroom.
Related Articles
Meta는 March 11, 2026 향후 2년 안에 MTIA custom chip 4세대를 개발·배치하겠다고 밝혔다. 회사는 ranking, recommendation, GenAI inference를 위한 AI infrastructure 전략의 중심에 MTIA를 두고 있다.
Meta는 2026년 1월 9일 Vistra, TerraPower, Oklo와의 계약을 발표하며 최대 6.6 GW 규모의 신규·기존 clean power를 2035년까지 지원하겠다고 밝혔다. Prometheus supercluster를 포함한 AI infrastructure 전력 확보가 핵심이다.
Meta는 2026년 3월 11일 MTIA 300부터 MTIA 500까지 이어지는 in-house AI chip 로드맵을 공개했다. 회사는 custom silicon을 통해 ranking, recommendation, 그리고 특히 GenAI inference의 비용 구조를 Meta 규모에 맞게 최적화하려 하고 있다.
Comments (0)
No comments yet. Be the first to comment!