NVIDIA, Rubin 플랫폼 양산 돌입... 6개 칩으로 구성된 차세대 AI 슈퍼컴퓨터
Rubin 플랫폼 개요
NVIDIA는 2026년 1월 5일 CES에서 Rubin 플랫폼을 공개했다. 이는 Blackwell 아키텍처의 후속이며, NVIDIA 최초의 6개 칩으로 구성된 극단적 코디자인(extreme-codesigned) AI 플랫폼으로, 현재 양산 중이다.
6개 칩 구성
Rubin 플랫폼은 다음 6개 칩의 극단적 코디자인을 통해 레이어 간 정보 흐름을 최적화하여, 학습 시간과 추론 토큰 비용을 대폭 절감한다:
- NVIDIA Vera CPU: 시스템 제어
- NVIDIA Rubin GPU: AI 연산
- NVIDIA NVLink 6 Switch: GPU 간 초고속 통신
- NVIDIA ConnectX-9 SuperNIC: 네트워크 가속
- NVIDIA BlueField-4 DPU: 데이터 처리
- NVIDIA Spectrum-6 Ethernet Switch: 데이터센터 네트워킹
성능 및 비용
- 50 petaflops NVFP4 연산: 3세대 Transformer Engine과 하드웨어 가속 적응형 압축(adaptive compression) 탑재
- Blackwell 대비 1/10 비용: Rubin의 실행 비용은 Blackwell 플랫폼의 10분의 1 수준
- 336억 트랜지스터 GPU: AI 인프라를 재편하는 규모
가용성 및 파트너십
Vera Rubin은 현재 양산 중이며, 2026년 하반기에 첫 제품이 출시된다. 2026년 Vera Rubin 기반 인스턴스를 배포할 최초의 클라우드 제공업체는 다음과 같다:
- AWS, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure
- CoreWeave, Lambda, Nebius, Nscale 등 클라우드 파트너
OpenAI와의 전략적 파트너십
NVIDIA는 OpenAI와 전략적 파트너십을 발표하여 10기가와트(10 GW) 규모의 NVIDIA 시스템을 배포한다. 이는 데이터센터 AI 인프라 구축에서 사상 최대 규모의 계약 중 하나다.
업계 영향
Data Center Knowledge는 "NVIDIA가 Rubin을 데이터센터 시장에 출시하며 강력한 입지를 유지한다"고 평가했다. 이번 발표로 NVIDIA는 AI 인프라 시장에서의 지배적 위치를 한층 강화했다.
Related Articles
NVIDIA가 CES 2026에서 Vera Rubin 슈퍼칩과 Rubin CPX GPU를 발표했다. Rubin 플랫폼은 Blackwell 대비 MoE 훈련에 필요한 GPU 수를 4배 줄이고, 추론 토큰 비용을 10배 절감한다.
NVIDIA가 CES 2026에서 Rubin AI 플랫폼을 발표했다. Blackwell 대비 추론 토큰 비용을 10배 줄이고, MoE 모델 학습 GPU 수를 4배 감소시키는 획기적 성능 향상을 제시했다.
엔비디아가 차세대 AI 컴퓨팅 시스템 Vera Rubin NVL72의 상세 사양을 공개했다. GPU당 추론 성능이 Blackwell의 5배이며 토큰당 추론 비용은 10분의 1로 절감된다. 2026년 하반기 출하 예정.
Comments (0)
No comments yet. Be the first to comment!