NVIDIA、Rubin世代DGX SuperPODのAIファクトリー設計を提示
Original: NVIDIA DGX SuperPOD Sets the Stage for Rubin-Based Systems View original →
単体GPU競争からシステム統合競争へ
NVIDIAはDGX SuperPODのRubin世代計画で、次世代AIインフラを「チップ性能」ではなく「統合システム」で提示した。発表では、Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switchを一体化する設計思想が示され、学習と推論の両面で効率改善を狙う。
同社は前世代比で推論トークンコストを最大10倍低減できると主張する。長文脈・agentic AIワークロードの増加を前提に、計算性能だけでなくメモリ帯域、相互接続、運用自動化を同時に最適化する構成だ。
規模構成: DGX Vera Rubin NVL72とDGX Rubin NVL8
DGX Vera Rubin NVL72ベースのSuperPODでは、14システム、1,008 Rubin GPU、FP4で50.4 exaflops、1,046TBメモリという構成が示されている。ラック内の260TB/s NVLink帯域により、モデル分割のオーバーヘッドを抑え、ラック全体を一体運用する狙いが説明された。
もう一つの経路としてDGX Rubin NVL8も提示された。64システム(512 Rubin GPU)構成で、液冷フォームファクタとx86 CPUを組み合わせ、既存環境からRubin世代へ移行する導線を提供する。NVL8単体ではBlackwell比5.5倍のNVFP4 FLOPSを訴求している。
ネットワークと運用ソフトが差別化の中心に
ネットワークはQuantum-X800 InfiniBandとSpectrum-X Ethernetによる800Gb/s級end-to-end構成を前面に出し、巨大クラスタにおける遅延・輻輳・信頼性課題への対応を強調した。加えてMission ControlをRubin対応DGXへ拡張し、展開設定、クラスタ運用、冷却・電力イベント対応、復旧自動化を支援するとしている。
NVIDIAはDGX SuperPOD with DGX Vera Rubin NVL72またはDGX Rubin NVL8を2026年後半に提供予定としている。今回の発表は、AIインフラ競争の評価軸が「GPU単体性能」から「運用可能なAIファクトリー全体設計」へ移っていることを示すシグナルといえる。
Related Articles
今回の要点は新しい提携そのものではない。NVIDIAとGoogle CloudはA5X Rubin基盤を単一サイト8万基、マルチサイトで96万基まで拡張でき、推論コストと電力当たり処理量を前世代比で最大10倍改善できると示した。
NVIDIAはHugging FaceでNemotron-Personas-Koreaを公開した。韓国の公的統計に基づく7 million synthetic personasは、agent localizationが翻訳だけでなく地域、敬語、職業、公共サービス文脈まで含むことを示す。
NVIDIADCは2026年3月17日のX投稿で、Groq 3 LPXをVera Rubin platform向けのrack-scale low-latency inference acceleratorとして紹介した。NVIDIAの3月16日付press releaseとtechnical blogによれば、LPXは256基のLPU、128GBのon-chip SRAM、640 TB/sのscale-up bandwidthを備え、Vera Rubin NVL72と組み合わせてagentic AI向けのheterogeneous inference pathを形成する。
Comments (0)
No comments yet. Be the first to comment!