NVIDIA DGX SuperPOD, Rubin 기반 AI 팩토리 청사진 공개
Original: NVIDIA DGX SuperPOD Sets the Stage for Rubin-Based Systems View original →
Rubin 시대를 겨냥한 DGX SuperPOD 확장 전략
NVIDIA는 NVIDIA DGX SuperPOD Sets the Stage for Rubin-Based Systems에서 Rubin 기반 대규모 AI 인프라 설계를 제시했다. 회사 설명에 따르면 Rubin 플랫폼은 Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 Ethernet Switch 등 6개 핵심 컴포넌트를 코드설계로 통합해 학습과 추론 효율을 동시에 높이는 구조다.
발표의 메시지는 단순 칩 소개가 아니라 시스템 레벨 최적화다. NVIDIA는 Rubin 세대 DGX가 Blackwell 대비 추론 토큰 비용을 최대 10배 낮출 수 있다고 주장하며, 장문맥 추론과 MoE 워크로드 확산에 맞춘 인프라 전환을 강조했다.
규모 지표: NVL72/NVL8와 네트워크 패브릭
DGX SuperPOD with DGX Vera Rubin NVL72 구성은 14개 NVL72 시스템, 총 1,008 Rubin GPU, FP4 기준 50.4 exaflops, 1,046TB 메모리 구성을 제시한다. 또한 랙 단위 NVLink 대역폭 260TB/s로 모델 분할 부담을 줄이고 랙 전체를 일관된 AI 엔진처럼 동작시키는 것을 목표로 한다.
동시에 DGX Rubin NVL8 경로도 제공된다. 64개 NVL8 시스템(512 Rubin GPU) 구성과 액체 냉각 form factor를 통해, x86 중심 환경에서 Rubin 세대로 이전하려는 조직의 온램프를 제시한다. 각 NVL8 시스템은 Blackwell 대비 5.5배 NVFP4 FLOPS를 강조한다.
운영 소프트웨어와 배포 시점
네트워킹 측면에서는 Quantum-X800 InfiniBand와 Spectrum-X Ethernet을 800Gb/s급 end-to-end 패브릭으로 제시해 대규모 AI 클러스터의 혼잡 제어와 확장성을 강조했다. 운영 계층에서는 Mission Control을 Rubin 기반 DGX에도 확장해 배포·클러스터 운영·시설 연계 자동화를 제공하겠다고 밝혔다.
회사 발표 기준으로 DGX SuperPOD with DGX Vera Rubin NVL72 또는 DGX Rubin NVL8 시스템은 2026년 하반기 공급이 예정돼 있다. 이 로드맵은 AI 인프라 경쟁이 단일 GPU 성능에서 시스템 통합, 운영 자동화, 네트워크 아키텍처로 빠르게 이동하고 있음을 보여준다.
Related Articles
NVIDIA가 Blackwell의 후속인 Rubin 플랫폼을 CES 2026에서 공개하고 양산에 돌입했다. 6개 칩으로 구성된 이 플랫폼은 Blackwell 대비 1/10의 비용으로 AI 추론을 수행한다.
NVIDIA가 1월 CES 2026에서 Rubin 플랫폼을 발표했다. 6개의 새로운 칩으로 구성되며, Vera Rubin 슈퍼칩은 GB200 대비 5배 향상된 추론 성능을 제공한다. OpenAI, Meta, Microsoft 등 주요 AI 기업들이 채택 예정이다.
NVIDIAAI는 Thinking Machines와 협력해 frontier AI model training용으로 최소 1 gigawatt 규모의 NVIDIA Vera Rubin system을 배치하겠다고 밝혔다. Thinking Machines는 이 인프라가 customizable AI를 제공하는 platform까지 뒷받침할 것이라고 설명했다.
Comments (0)
No comments yet. Be the first to comment!