NVIDIA Rubin 플랫폼, AI 추론 비용 10배 절감 목표로 공개
NVIDIA가 CES 2026에서 차세대 AI 인프라 플랫폼 Rubin을 공개했다. 이 플랫폼은 세계 최대 규모의 AI 시스템을 가장 낮은 비용으로 구축·배포·보안할 수 있는 새로운 표준을 제시한다.
Rubin 플랫폼: 6개의 칩, 하나의 AI 슈퍼컴퓨터
NVIDIA Rubin 플랫폼은 6개의 새로운 칩으로 구성된 통합 시스템이다. NVIDIA는 이 플랫폼이 기존 대비 추론 토큰 비용을 10배 절감할 수 있다고 밝혔다.
이는 AI 모델 배포 비용이 크게 감소함을 의미한다. 특히 대규모 언어 모델(LLM)을 상용 서비스로 운영하는 기업들에게 획기적인 비용 개선 효과를 가져올 전망이다.
Physical AI와 자율주행 강화
NVIDIA는 Rubin 플랫폼과 함께 Physical AI를 위한 새로운 오픈 모델, 프레임워크, AI 인프라도 공개했다. 글로벌 파트너들은 이를 기반으로 모든 산업을 위한 로봇을 발표했다.
NVIDIA Alpamayo: 안전한 자율주행의 미래
NVIDIA는 안전하고 추론 기반의 자율주행 차량(AV) 개발을 가속화하기 위해 Alpamayo 패밀리를 발표했다. 이는 다음을 포함한다:
- 오픈 AI 모델
- 시뮬레이션 도구
- 데이터셋
Alpamayo는 자율주행 차량이 복잡한 실제 상황에서 안전하게 추론하고 판단할 수 있도록 설계되었다.
제약·바이오 산업 혁신
NVIDIA와 Eli Lilly는 제약 산업의 가장 어려운 과제를 해결하기 위한 최초의 AI 공동 혁신 랩을 발표했다.
또한 NVIDIA는 BioNeMo 플랫폼의 대규모 확장을 발표했다. BioNeMo는 AI 기반 생물학 및 신약 발견을 위한 랩-인-더-루프(lab-in-the-loop) 워크플로우를 지원하는 오픈 개발 플랫폼이다.
AI 인프라의 새로운 표준
Jensen Huang CEO는 "Rubin은 차세대 AI를 시작한다"며 "하나의 놀라운 AI 슈퍼컴퓨터로 6개의 새로운 칩을 제공한다"고 강조했다.
NVIDIA Rubin 플랫폼은 AI 산업 전반에 걸쳐 추론 비용 절감, 물리적 AI 구현, 그리고 과학적 발견 가속화라는 세 가지 핵심 가치를 제공할 것으로 기대된다.
자세한 내용은 NVIDIA 공식 발표에서 확인할 수 있다.
Related Articles
이번 소식의 핵심은 또 하나의 클라우드 제휴가 아니다. NVIDIA와 Google Cloud는 A5X Rubin 시스템이 단일 사이트 8만개, 멀티사이트 96만개 GPU까지 확장될 수 있고, 이전 세대 대비 토큰당 추론 비용과 전력당 처리량이 각각 최대 10배 개선된다고 밝혔다.
NVIDIADC는 2026년 3월 17일 X에서 Groq 3 LPX를 Vera Rubin platform용 rack-scale low-latency inference accelerator로 소개했다. NVIDIA의 3월 16일 press release와 technical blog는 LPX가 256개의 LPU, 128GB on-chip SRAM, 640 TB/s scale-up bandwidth를 갖추고 Vera Rubin NVL72와 함께 agentic AI용 heterogeneous inference path를 형성한다고 설명한다.
NVIDIA가 Blackwell의 후속인 Rubin 플랫폼을 CES 2026에서 공개하고 양산에 돌입했다. 6개 칩으로 구성된 이 플랫폼은 Blackwell 대비 1/10의 비용으로 AI 추론을 수행한다.
Comments (0)
No comments yet. Be the first to comment!