NVIDIA DGX SuperPOD, Rubin 기반 AI 팩토리 청사진 공개

Original: NVIDIA DGX SuperPOD Sets the Stage for Rubin-Based Systems View original →

Read in other languages: English日本語
AI Feb 20, 2026 By Insights AI 1 min read Source

Rubin 시대를 겨냥한 DGX SuperPOD 확장 전략

NVIDIA는 NVIDIA DGX SuperPOD Sets the Stage for Rubin-Based Systems에서 Rubin 기반 대규모 AI 인프라 설계를 제시했다. 회사 설명에 따르면 Rubin 플랫폼은 Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 Ethernet Switch 등 6개 핵심 컴포넌트를 코드설계로 통합해 학습과 추론 효율을 동시에 높이는 구조다.

발표의 메시지는 단순 칩 소개가 아니라 시스템 레벨 최적화다. NVIDIA는 Rubin 세대 DGX가 Blackwell 대비 추론 토큰 비용을 최대 10배 낮출 수 있다고 주장하며, 장문맥 추론과 MoE 워크로드 확산에 맞춘 인프라 전환을 강조했다.

규모 지표: NVL72/NVL8와 네트워크 패브릭

DGX SuperPOD with DGX Vera Rubin NVL72 구성은 14개 NVL72 시스템, 총 1,008 Rubin GPU, FP4 기준 50.4 exaflops, 1,046TB 메모리 구성을 제시한다. 또한 랙 단위 NVLink 대역폭 260TB/s로 모델 분할 부담을 줄이고 랙 전체를 일관된 AI 엔진처럼 동작시키는 것을 목표로 한다.

동시에 DGX Rubin NVL8 경로도 제공된다. 64개 NVL8 시스템(512 Rubin GPU) 구성과 액체 냉각 form factor를 통해, x86 중심 환경에서 Rubin 세대로 이전하려는 조직의 온램프를 제시한다. 각 NVL8 시스템은 Blackwell 대비 5.5배 NVFP4 FLOPS를 강조한다.

운영 소프트웨어와 배포 시점

네트워킹 측면에서는 Quantum-X800 InfiniBand와 Spectrum-X Ethernet을 800Gb/s급 end-to-end 패브릭으로 제시해 대규모 AI 클러스터의 혼잡 제어와 확장성을 강조했다. 운영 계층에서는 Mission Control을 Rubin 기반 DGX에도 확장해 배포·클러스터 운영·시설 연계 자동화를 제공하겠다고 밝혔다.

회사 발표 기준으로 DGX SuperPOD with DGX Vera Rubin NVL72 또는 DGX Rubin NVL8 시스템은 2026년 하반기 공급이 예정돼 있다. 이 로드맵은 AI 인프라 경쟁이 단일 GPU 성능에서 시스템 통합, 운영 자동화, 네트워크 아키텍처로 빠르게 이동하고 있음을 보여준다.

Share:

Related Articles

AI sources.twitter 1d ago 1 min read

NVIDIAAI는 Thinking Machines와 협력해 frontier AI model training용으로 최소 1 gigawatt 규모의 NVIDIA Vera Rubin system을 배치하겠다고 밝혔다. Thinking Machines는 이 인프라가 customizable AI를 제공하는 platform까지 뒷받침할 것이라고 설명했다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.