NVIDIA、Rubin世代DGX SuperPODのAIファクトリー設計を提示

Original: NVIDIA DGX SuperPOD Sets the Stage for Rubin-Based Systems View original →

Read in other languages: 한국어English
AI Feb 20, 2026 By Insights AI 1 min read Source

単体GPU競争からシステム統合競争へ

NVIDIAはDGX SuperPODのRubin世代計画で、次世代AIインフラを「チップ性能」ではなく「統合システム」で提示した。発表では、Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switchを一体化する設計思想が示され、学習と推論の両面で効率改善を狙う。

同社は前世代比で推論トークンコストを最大10倍低減できると主張する。長文脈・agentic AIワークロードの増加を前提に、計算性能だけでなくメモリ帯域、相互接続、運用自動化を同時に最適化する構成だ。

規模構成: DGX Vera Rubin NVL72とDGX Rubin NVL8

DGX Vera Rubin NVL72ベースのSuperPODでは、14システム、1,008 Rubin GPU、FP4で50.4 exaflops、1,046TBメモリという構成が示されている。ラック内の260TB/s NVLink帯域により、モデル分割のオーバーヘッドを抑え、ラック全体を一体運用する狙いが説明された。

もう一つの経路としてDGX Rubin NVL8も提示された。64システム(512 Rubin GPU)構成で、液冷フォームファクタとx86 CPUを組み合わせ、既存環境からRubin世代へ移行する導線を提供する。NVL8単体ではBlackwell比5.5倍のNVFP4 FLOPSを訴求している。

ネットワークと運用ソフトが差別化の中心に

ネットワークはQuantum-X800 InfiniBandとSpectrum-X Ethernetによる800Gb/s級end-to-end構成を前面に出し、巨大クラスタにおける遅延・輻輳・信頼性課題への対応を強調した。加えてMission ControlをRubin対応DGXへ拡張し、展開設定、クラスタ運用、冷却・電力イベント対応、復旧自動化を支援するとしている。

NVIDIAはDGX SuperPOD with DGX Vera Rubin NVL72またはDGX Rubin NVL8を2026年後半に提供予定としている。今回の発表は、AIインフラ競争の評価軸が「GPU単体性能」から「運用可能なAIファクトリー全体設計」へ移っていることを示すシグナルといえる。

Share:

Related Articles

AI sources.twitter 1d ago 1 min read

NVIDIAAIはThinking Machinesと提携し、frontier AI model training向けに少なくとも1 gigawatt規模のNVIDIA Vera Rubin systemを配備すると発表した。Thinking Machinesは、customizable AIを提供するplatformもこの基盤で支えるとしている。

AI 5d ago 1 min read

NVIDIAは主要通信事業者と装置ベンダーがopen and secure AI-native platformsを基盤に6Gを構築することで合意したと発表した。今回の動きは、6G競争をradiosとspectrumだけでなくprogrammable AI infrastructureを巡る競争へ広げるものだ。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.