r/LocalLLaMA가 본 NVIDIA Nemotron 3 Super 공개
Original: Nemotron 3 Super Released View original →
왜 이 release가 LocalLLaMA에서 크게 움직였나
NVIDIA는 Nemotron 3 Super blog post를 단순한 frontier model 홍보가 아니라 agentic reasoning용 모델 소개로 구성했다. 설명에 따르면 이 모델은 120B total, 12B active-parameter의 hybrid Mamba-Transformer MoE이며, software development와 cybersecurity triaging 같은 dense technical task를 겨냥한다. 또한 native 1M-token context window, over 5x throughput, open weights, datasets, and recipes를 전면에 내세우며 multi-agent workflow에서의 "thinking tax"를 줄이겠다고 말한다.
하지만 r/LocalLLaMA thread가 실제로 반응한 포인트는 headline size만이 아니었다. commenters는 곧바로 BF16, NVFP4, GGUF 링크를 모으고, 64GB급 system에서 어느 정도까지 실용적으로 돌릴 수 있는지, mainline llama.cpp support가 언제 안정화되는지를 따졌다. 이것이 LocalLLaMA다운 반응이다. press language보다 deployability를 먼저 본다.
기술적으로 눈에 띄는 부분
NVIDIA는 이 모델이 sequence efficiency를 위한 Mamba layer와 precision reasoning을 위한 Transformer layer를 결합했다고 설명한다. 또 Blackwell용 native NVFP4 pretraining, 21 environment configuration에 걸친 RL post-training, 1.2 million이 넘는 environment rollouts 같은 숫자를 제시한다. open release라는 점도 중요하다. 이 크기대 model에서 weights, datasets, recipes가 함께 공개되면 community가 quantization, adaptation, toolchain integration을 직접 밀어붙일 수 있기 때문이다.
가까운 관전 포인트는 ecosystem 적응 속도다. 일부 comments는 mainline llama.cpp가 아직 따라오는 중이고, Unsloth branch와 초기 GGUF build가 그 공백을 메우고 있다고 짚었다. 결국 이 소식의 핵심은 NVIDIA의 architecture pitch 그 자체보다, 이 open release가 community stack 안으로 얼마나 빨리 스며들어 실제 local reasoning option이 되느냐에 있다.
Related Articles
r/LocalLLaMA에서 주목받은 FlashAttention-4는 B200 BF16에서 최대 1605 TFLOPs/s를 제시하며, Blackwell의 메모리·SFU 병목을 겨냥한 파이프라인 개선을 소개했다.
NVIDIA AI Developer는 2026년 3월 11일 Nemotron 3 Super를 공개하며, 12B active parameters를 사용하는 오픈 120B-parameter hybrid MoE 모델과 native 1M-token context를 강조했다. NVIDIA는 이 모델이 이전 Nemotron Super 대비 최대 5배 높은 throughput으로 agentic workload를 겨냥한다고 설명했다.
OpenAI는 GPT-5.4 Thinking을 ChatGPT에, GPT-5.4를 API와 Codex에, GPT-5.4 Pro를 ChatGPT와 API에 배포하기 시작했다. reasoning, coding, native computer use를 최대 1M-token context와 함께 하나의 professional-work model로 묶었다는 점이 핵심이다.
Comments (0)
No comments yet. Be the first to comment!