Meta와 NVIDIA, 수백만 GPU 대규모 AI 인프라 파트너십 체결
NVIDIA는 2026년 2월 17일 Meta와의 멀티이어·멀티세대 전략적 파트너십 체결을 공식 발표했다. 이번 협약은 Meta의 하이퍼스케일 데이터센터 전반에 NVIDIA CPU, GPU, 네트워킹을 통합 배포하는 내용으로, 온프레미스·클라우드·AI 인프라를 모두 포괄한다.
수백만 개의 GPU 배포
파트너십의 핵심은 훈련·추론 워크로드 모두에 최적화된 Meta 데이터센터에 수백만 개의 NVIDIA Blackwell 및 Rubin GPU를 배포하는 것이다. Rubin 플랫폼은 Blackwell 대비 추론 토큰 비용을 최대 10분의 1로, MoE 모델 훈련에 필요한 GPU 수를 4분의 1로 줄이는 성능을 제공한다.
최초 Grace CPU 대규모 단독 배포
Meta는 NVIDIA의 Arm 기반 Grace CPU를 데이터센터에 독립적으로 대규모 배포하는 첫 번째 사례가 됐다. 에너지 효율 향상을 목표로 하며, 2027년에는 차세대 NVIDIA Vera CPU로의 전환도 계획하고 있다.
AI 네트워킹 및 프라이버시 컴퓨팅
Meta는 NVIDIA Spectrum-X 이더넷 스위치로 AI 규모의 저지연 네트워킹을 구축한다. WhatsApp 프라이빗 처리에는 NVIDIA Confidential Computing을 채택해 사용자 데이터 기밀성을 보장하면서 AI 기능을 구현한다.
원문: NVIDIA 공식 보도자료
Related Articles
Meta와 NVIDIA가 2월 17일 멀티 세대 전략적 AI 인프라 파트너십을 발표했다. Blackwell·Rubin GPU 수백만 개와 Grace CPU의 사상 최초 대규모 단독 배포를 포함하며, Meta의 2028년까지 미국 내 6,000억 달러 투자 계획의 일환이다.
NVIDIA가 Blackwell의 후속인 Rubin 플랫폼을 CES 2026에서 공개하고 양산에 돌입했다. 6개 칩으로 구성된 이 플랫폼은 Blackwell 대비 1/10의 비용으로 AI 추론을 수행한다.
NVIDIA가 CES 2026에서 Vera Rubin 슈퍼칩과 Rubin CPX GPU를 발표했다. Rubin 플랫폼은 Blackwell 대비 MoE 훈련에 필요한 GPU 수를 4배 줄이고, 추론 토큰 비용을 10배 절감한다.
Comments (0)
No comments yet. Be the first to comment!