부식 중

NVIDIA, Rubin 플랫폼 출시... 추론 비용 10배↓·훈련 GPU 4배↓

Read in other languages: English日本語
AI Feb 13, 2026 By Insights AI 1 min read 6 views Source

Rubin 플랫폼, 2026년 하반기 출시

NVIDIA가 차세대 AI 플랫폼 Rubin을 발표했다. Rubin 기반 제품은 2026년 하반기부터 파트너사를 통해 출시될 예정이며, 현재 완전 생산(full production) 단계에 있다.

Blackwell 대비 극적인 성능 개선

Rubin 플랫폼은 하드웨어와 소프트웨어의 극단적인 공동 설계(extreme codesign)를 통해 다음을 달성했다:

  • 추론 토큰 비용 10배 절감: Blackwell 대비 추론 비용 대폭 감소
  • MoE 모델 훈련 GPU 4배 감소: Mixture-of-Experts 모델 훈련에 필요한 GPU 수를 1/4로 줄임
  • 6개의 새로운 칩: Rubin GPU, Grace CPU, 그리고 네트워킹 칩 포함

주요 클라우드 파트너

2026년 Vera Rubin 기반 인스턴스를 최초로 배치할 클라우드 제공업체:

  • 메가 클라우드: AWS, Google Cloud, Microsoft, OCI
  • NVIDIA Cloud 파트너: CoreWeave, Lambda, Nebius, Nscale
  • 서버 제조사: Cisco, Dell, HPE, Lenovo, Supermicro

소비자 GPU는 2026년 건너뛴다

한편 NVIDIA는 2026년 게이밍 GPU 신제품 출시를 건너뛸 것으로 알려졌다. RTX 50 Super 및 RTX 60 시리즈가 메모리 부족과 수익성 차이로 인해 연기된다.

AI 칩의 이익률은 65%인 반면 그래픽 카드는 40%에 불과해, NVIDIA는 AI 생산에 집중하는 전략적 전환을 단행했다.

AI 인프라 시장 주도권 강화

Rubin 플랫폼 출시는 NVIDIA가 AI 인프라 시장에서의 압도적 우위를 2026년 이후에도 유지할 것임을 보여준다. 특히 추론 비용 절감은 LLM 서비스 제공 업체들에게 게임 체인저가 될 전망이다.

출처: NVIDIA Newsroom, TrendForce

Share: Long

Related Articles

AI sources.twitter Apr 2, 2026 1 min read

NVIDIADC는 2026년 3월 17일 X에서 Groq 3 LPX를 Vera Rubin platform용 rack-scale low-latency inference accelerator로 소개했다. NVIDIA의 3월 16일 press release와 technical blog는 LPX가 256개의 LPU, 128GB on-chip SRAM, 640 TB/s scale-up bandwidth를 갖추고 Vera Rubin NVL72와 함께 agentic AI용 heterogeneous inference path를 형성한다고 설명한다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.