NVIDIA Vera Rubinプラットフォーム発表... MoE学習GPU 75%削減·推論コスト10倍減少
CES 2026でVera Rubin公開
NVIDIAがCES 2026で次世代AIプラットフォームVera Rubinを発表した。Rubinは1つのVera CPUと2つのRubin GPUを単一プロセッサに統合したスーパーチップで、6つのチップで構成されるRubinプラットフォームのコアだ。
革新的な性能向上
NVIDIAはRubinプラットフォームが既存のBlackwellシステムと比較して次のような性能改善を提供すると発表した:
- MoEモデル学習: 同じモデル学習に必要なGPU数を4倍削減(75%削減)
- 推論トークンコスト: 10倍削減
これは特にGPT-4、Llama 4 Maverick、DeepSeek V4のような大規模Mixture-of-Experts(MoE)モデルに最適化されている。
エージェンティックAIと推論モデルをターゲット
NVIDIAはRubinプラットフォームをエージェンティックAI(Agentic AI)、高度な推論モデル(Advanced Reasoning Models)、MoEモデルに理想的だと強調した。これは2026年のAI業界の主要トレンドを反映している。
リリース日程とパートナー
Rubinプラットフォームは現在フルプロダクション段階にあり、2026年下半期からパートナー企業を通じて製品がリリースされる。主要クラウドプロバイダー(AWS、Google Cloud、Microsoft Azure)およびサーバーメーカーがRubinベースの製品を準備中だ。
ゲーミングGPUは2026年空白
一方、NVIDIAは30年ぶりに初めて2026年の1年間、新しいゲーミングGPUをリリースしないと報じられた。グローバルメモリ不足により、NVIDIAが限られたメモリ容量をAIアクセラレータに優先配分するためだ。
VibeTensorオープンソース公開
NVIDIAはまたVibeTensorを公開した。これはLLMコーディングエージェントが生成したPyTorchスタイルのディープラーニングランタイムで、Apache 2.0ライセンスでオープンソース化された。Linux x86_64 + NVIDIA GPU + CUDAを必須要件とする。
Related Articles
NVIDIAが次世代AIプラットフォームRubinを発表。Blackwell比で推論トークンコスト10倍削減、MoEモデル訓練GPU数4倍削減を達成し、2026年下半期リリース予定。
NVIDIAが2026年1月のCESでRubinプラットフォームを発表した。6つの新しいチップで構成され、Vera RubinスーパーチップはGB200と比較して5倍向上した推論性能を提供する。OpenAI、Meta、Microsoftなどの主要AI企業が採用予定だ。
NVIDIAAIはThinking Machinesと提携し、frontier AI model training向けに少なくとも1 gigawatt規模のNVIDIA Vera Rubin systemを配備すると発表した。Thinking Machinesは、customizable AIを提供するplatformもこの基盤で支えるとしている。
Comments (0)
No comments yet. Be the first to comment!