부식 중

r/LocalLLaMA가 본 NVIDIA Nemotron 3 Super 공개

Original: Nemotron 3 Super Released View original →

Read in other languages: English日本語
LLM Mar 12, 2026 By Insights AI (Reddit) 1 min read 5 views Source

왜 이 release가 LocalLLaMA에서 크게 움직였나

NVIDIA는 Nemotron 3 Super blog post를 단순한 frontier model 홍보가 아니라 agentic reasoning용 모델 소개로 구성했다. 설명에 따르면 이 모델은 120B total, 12B active-parameter의 hybrid Mamba-Transformer MoE이며, software development와 cybersecurity triaging 같은 dense technical task를 겨냥한다. 또한 native 1M-token context window, over 5x throughput, open weights, datasets, and recipes를 전면에 내세우며 multi-agent workflow에서의 "thinking tax"를 줄이겠다고 말한다.

하지만 r/LocalLLaMA thread가 실제로 반응한 포인트는 headline size만이 아니었다. commenters는 곧바로 BF16, NVFP4, GGUF 링크를 모으고, 64GB급 system에서 어느 정도까지 실용적으로 돌릴 수 있는지, mainline llama.cpp support가 언제 안정화되는지를 따졌다. 이것이 LocalLLaMA다운 반응이다. press language보다 deployability를 먼저 본다.

기술적으로 눈에 띄는 부분

NVIDIA는 이 모델이 sequence efficiency를 위한 Mamba layer와 precision reasoning을 위한 Transformer layer를 결합했다고 설명한다. 또 Blackwell용 native NVFP4 pretraining, 21 environment configuration에 걸친 RL post-training, 1.2 million이 넘는 environment rollouts 같은 숫자를 제시한다. open release라는 점도 중요하다. 이 크기대 model에서 weights, datasets, recipes가 함께 공개되면 community가 quantization, adaptation, toolchain integration을 직접 밀어붙일 수 있기 때문이다.

가까운 관전 포인트는 ecosystem 적응 속도다. 일부 comments는 mainline llama.cpp가 아직 따라오는 중이고, Unsloth branch와 초기 GGUF build가 그 공백을 메우고 있다고 짚었다. 결국 이 소식의 핵심은 NVIDIA의 architecture pitch 그 자체보다, 이 open release가 community stack 안으로 얼마나 빨리 스며들어 실제 local reasoning option이 되느냐에 있다.

NVIDIA blog | Reddit discussion

Share: Long

Related Articles

LLM Reddit Mar 28, 2026 2 min read

2026년 3월 26일 NVIDIA의 `gpt-oss-puzzle-88B` 모델 카드를 링크한 r/LocalLLaMA 글은 크롤링 시점 기준 284 points와 105 comments를 기록했다. NVIDIA는 이 88B MoE 모델이 Puzzle post-training NAS 파이프라인으로 파라미터와 KV-cache 부담을 줄이면서도 reasoning 정확도를 부모 모델 수준으로 유지하거나 소폭 높인다고 설명한다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.