LocalLLaMAが押し上げたGreenBoost、RAMとNVMeでNVIDIA GPU memoryを拡張するLinux driver
Original: Open-Source "GreenBoost" Driver Aims To Augment NVIDIA GPUs vRAM With System RAM & NVMe To Handle Larger LLMs View original →
GreenBoostは、LocalLLaMAが素早く反応する種類のinfrastructure projectだ。理由は単純で、local LLM ecosystemにおける最も厳しい実務上の制約の1つ、つまりGPU memory不足を正面から狙っているからだ。crawl時点でこのReddit threadは141 upvotesと38 commentsを集めていた。リンク先のPhoronix記事は2026年3月14日に公開され、GreenBoostをsystem RAMとNVMe storageでNVIDIA GPU memoryを補強するためのindependently developedなopen-source Linux kernel moduleとして紹介している。
Phoronixによれば、GreenBoostはNVIDIAの公式Linux driver stackを置き換えるものではない。代わりに、専用kernel module greenboost.ko とCUDA user-space shimを組み合わせて横に付け足す構成を取る。kernel側ではbuddy allocatorでpinned DDR4 pageを確保し、それをDMA-BUF file descriptorとして公開する。GPUはそのpageをCUDA external memoryとしてimportでき、実際のdata movementはPCIe 4.0 x16が担うという。さらにsysfs interfaceとwatchdog threadでRAMやNVMe pressureも監視する。
communityが注目した技術ポイント
- small allocationは通常どおり通し、overflowしたmodel weightやKV cacheのようなlarge allocationだけを拡張memory pathへ送るCUDA shim構造である。
- user-space layerはallocation callやsymbol lookupまでhookし、Ollamaのようなsoftwareがより大きなusable poolを見られるようにする。
- 開発者の動機として挙げられたのは、GeForce RTX 5070 12GBで31.8 GB modelを動かしたいという具体的な問題だった。
これが面白いのは、local inferenceでよくある妥協を別方向から解こうとしている点にある。従来はsystem memoryへのoffloadでthroughputを落とすか、より強いquantizationでqualityを落とすかになりがちだった。GreenBoostはstorage hierarchyをより積極的にGPU memory surfaceの一部として扱うことで、その妥協を和らげようとする。もちろん実用性はbandwidth、latency、workload shapeに大きく左右され、codeも明らかにexperimentalだ。それでもLocalLLaMAがこの話題を強く押し上げた理由は分かりやすい。consumer GPUのmemory ceilingは、今もなお多くの人が望むmodelを望むprecisionで回せない最大の壁の1つだからだ。
Source: Phoronix · Code: GitLab · Community discussion: r/LocalLLaMA
Related Articles
HNがこのリポジトリに反応したのは、また一つブラウザ自動化ラッパーが出たからではない。作業の途中でモデル自身が不足した helper を書き足しながら進む、という発想が刺さった。
マルチモーダルエージェントは、視覚・音声・テキストを別モデルでつなぐ分だけ遅く高くなりがちだ。NVIDIAはNemotron 3 Nano Omniでその構成を1本化し、30B・256K文脈、同じ応答性条件で動画推論の実効容量最大9.2倍を打ち出した。
LocalLLaMAがこの投稿に反応した理由ははっきりしていた。27B modelを二枚の不揃いGPUのVRAM内へ押し込めるなら、遅い補助カードでもsystem RAMへあふれるよりましだという、かなり実務的な主張だったからだ。
Comments (0)
No comments yet. Be the first to comment!