NVIDIA Vera Rubinプラットフォーム発表... MoE学習GPU 75%削減·推論コスト10倍減少
CES 2026でVera Rubin公開
NVIDIAがCES 2026で次世代AIプラットフォームVera Rubinを発表した。Rubinは1つのVera CPUと2つのRubin GPUを単一プロセッサに統合したスーパーチップで、6つのチップで構成されるRubinプラットフォームのコアだ。
革新的な性能向上
NVIDIAはRubinプラットフォームが既存のBlackwellシステムと比較して次のような性能改善を提供すると発表した:
- MoEモデル学習: 同じモデル学習に必要なGPU数を4倍削減(75%削減)
- 推論トークンコスト: 10倍削減
これは特にGPT-4、Llama 4 Maverick、DeepSeek V4のような大規模Mixture-of-Experts(MoE)モデルに最適化されている。
エージェンティックAIと推論モデルをターゲット
NVIDIAはRubinプラットフォームをエージェンティックAI(Agentic AI)、高度な推論モデル(Advanced Reasoning Models)、MoEモデルに理想的だと強調した。これは2026年のAI業界の主要トレンドを反映している。
リリース日程とパートナー
Rubinプラットフォームは現在フルプロダクション段階にあり、2026年下半期からパートナー企業を通じて製品がリリースされる。主要クラウドプロバイダー(AWS、Google Cloud、Microsoft Azure)およびサーバーメーカーがRubinベースの製品を準備中だ。
ゲーミングGPUは2026年空白
一方、NVIDIAは30年ぶりに初めて2026年の1年間、新しいゲーミングGPUをリリースしないと報じられた。グローバルメモリ不足により、NVIDIAが限られたメモリ容量をAIアクセラレータに優先配分するためだ。
VibeTensorオープンソース公開
NVIDIAはまたVibeTensorを公開した。これはLLMコーディングエージェントが生成したPyTorchスタイルのディープラーニングランタイムで、Apache 2.0ライセンスでオープンソース化された。Linux x86_64 + NVIDIA GPU + CUDAを必須要件とする。
Related Articles
NVIDIAが次世代AIプラットフォームRubinを発表。Blackwell比で推論トークンコスト10倍削減、MoEモデル訓練GPU数4倍削減を達成し、2026年下半期リリース予定。
HNがこのpostを面白がった理由は、Apple Silicon unified memoryでWasm sandboxとGPU bufferが本当に同じbytesを扱えるのかという実装上の境界だった。
LocalLLaMA の DGX Spark ユーザー投稿は、NVFP4 がまだ production-ready から遠いと主張した。議論はすぐに、NVIDIA の高価な local AI マシンがなお価格を正当化できるかへ広がった。
Comments (0)
No comments yet. Be the first to comment!