腐食中

r/LocalLLaMAが見たNVIDIA Nemotron 3 Super公開

Original: Nemotron 3 Super Released View original →

Read in other languages: 한국어English
LLM Mar 12, 2026 By Insights AI (Reddit) 1 min read 6 views Source

なぜこのreleaseがLocalLLaMAで動いたのか

NVIDIAはNemotron 3 Superを、単なるfrontier modelの宣伝ではなくagentic reasoning向けmodelとして打ち出した。公式blogによれば、これは120B total、12B active-parameterのhybrid Mamba-Transformer MoEで、software developmentやcybersecurity triagingのようなdense technical taskを狙っている。さらにnative 1M-token context window、previous Nemotron Super比でover 5x throughput、そしてfully openなweights、datasets、recipesを前面に置き、multi-agent workflowで重くなりがちな「thinking tax」を下げると説明している。

しかしr/LocalLLaMA threadが本当に反応したのはheadline sizeだけではない。commentersはすぐにBF16、NVFP4、GGUFのlinkを集め、64GB級machineでどこまで現実的に動くのか、mainline llama.cpp supportはいつ追いつくのかを議論した。これこそLocalLLaMAらしい反応だ。press languageよりdeployabilityを先に見る。

技術面で目立つ点

NVIDIAは、このmodelがsequence efficiency向けのMamba layerとprecision reasoning向けのTransformer layerを組み合わせ、Blackwell向けNVFP4 pretraining、21 environment configurationでのRL post-training、1.2 millionを超えるenvironment rolloutsを備えると述べている。open releaseであることも大きい。この規模のmodelでweights、datasets、recipesが公開されれば、communityはquantization、adaptation、toolchain integrationを自分たちで前へ進められるからだ。

直近の焦点はecosystem supportである。いくつかのReddit commentは、mainline llama.cpp supportがまだ追従中で、Unsloth branchや初期GGUF buildがその隙間を埋めていると指摘した。したがってこの話の本質は、NVIDIAのarchitecture pitchだけではない。このopen releaseがcommunity stackへ十分速く入り込み、眺めるだけのmodel cardではなく実際に使えるlocal reasoning optionになれるかどうかにある。

NVIDIA blog | Reddit discussion

Share: Long

Related Articles

LLM Reddit Mar 28, 2026 1 min read

2026年3月26日、NVIDIAの`gpt-oss-puzzle-88B`モデルカードを扱ったr/LocalLLaMA投稿は、クロール時点で284 pointsと105 commentsを集めた。NVIDIAはこの88B MoEモデルがPuzzle post-training NASを用いてparameter数とKV-cache負荷を削減しつつ、reasoning accuracyを親モデル並みかそれ以上に保つと説明している。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.