NVIDIA DGX Spark 16台クラスター構築レポート — 統合メモリで大規模LLM推論
Original: 16x Spark Cluster (Build Update) View original →
構築完了
LocalLLaMAコミュニティで注目を集めた16台NVIDIA DGX Sparkクラスターの構築が完了した。FS N8510スイッチにQSFP56ケーブルで全ノードを接続し、ノードあたり200Gbps(デュアルレールで各100〜111Gbps)のネットワーク帯域を達成している。
なぜH100やGB300ではなくDGX Sparkを選んだのか
答えは統合メモリだ。NVIDIAエコシステム内で統合メモリ容量を最大化することが最大の目的。8台構成時はGLM-5.1-NVFP4(434GB)をTP=8で提供しており、16台になった今はDeepSeekやKimiのテストとともに、プリフィル/デコード分離アーキテクチャを目指している。
セットアップ手順
各DGX SparkはNVIDIAカスタムUbuntuを搭載しており、ソフトウェアの多くが事前インストール済み。ラッキング → 電源投入 → 全ノードへの同一ユーザーアカウント作成 → ノードあたり約20分のアップデート待機 → パスワードレスSSH・ジャンボフレーム・IPの設定(スクリプト化)の順で進めた。
この構築が示すもの
個人や小規模チームが大規模GPUクラスターを構築できる時代になってきたことを示す好例だ。純粋な計算性能よりもモデルの収容容量(統合メモリ)を重視するアプローチは、LLM推論インフラの成熟を反映している。
Related Articles
LocalLLaMAコミュニティメンバーが16台のDGX Sparkクラスターを構築し、200Gbpsファブリックで接続完了。統合メモリを活かしてDeepSeekやKimiの大規模モデル推論をテスト予定。
NVIDIA AI PCは2026年4月2日のXで、Gemma 4 モデル群が RTX GPU と DGX Spark 向けに最適化され、とくに 26B と 31B が local agentic AI に適していると述べた。NVIDIA の公式 blog では、この協業が RTX PC、workstation、DGX Spark、Jetson Orin Nano、data center 配備までをカバーし、native tool use、multimodal input、Ollama と llama.cpp による local runtime を支えると説明している。
27BモデルがSonnet 4.6に並んだという話でLocalLLaMAは沸いたが、議論はすぐベンチ最適化と実運用条件の確認に移った。
Comments (0)
No comments yet. Be the first to comment!