r/LocalLLaMA, 공개형 30B MoE reasoning model NVIDIA Nemotron-Cascade-2-30B-A3B 주목

Original: Nemotron Cascade 2 30B A3B View original →

Read in other languages: English日本語
LLM Mar 21, 2026 By Insights AI (Reddit) 1 min read Source

2026년 3월 20일 r/LocalLLaMA에서는 NVIDIA의 Nemotron-Cascade-2-30B-A3B를 다루는 글이 93 points와 37 comments를 기록했다. 커뮤니티가 관심을 보인 이유는 분명하다. open 30B mixture-of-experts model이면서 실제로 활성화되는 매개변수는 3B 수준이고, benchmark claim도 local deployment를 고민하는 사용자에게 충분히 의미 있는 수준이기 때문이다.

Hugging Face model card에 따르면 Nemotron-Cascade-2-30B-A3B는 Nemotron-3-Nano-30B-A3B-Base를 post-train한 모델이다. NVIDIA는 이 모델을 thinking mode와 instruct mode를 모두 지원하는 dual-mode model로 설명한다. chat template은 ChatML 스타일을 따르며, reasoning content는 <think> 태그 안에 넣고, non-reasoning mode는 비어 있는 <think></think>를 앞에 붙여 활성화하는 방식을 제시한다.

모델이 눈에 띄는 이유

headline 숫자도 공격적이다. NVIDIA는 2025 IMO와 IOI에서 gold medal 수준 성능을 주장하고, LiveCodeBench, ArenaHard v2, IFBench, 여러 math benchmark에서도 강한 수치를 공개했다. 동시에 model card에는 sampling parameter, tool-response formatting, multi-turn prompting 방식까지 함께 적혀 있어 단순 benchmark 자랑이 아니라 바로 실험 가능한 release에 가깝다.

  • 30B total parameters 중 3B만 activated된다는 점은 open deployment 관점에서 효율성이 큰 장점이다.
  • 공개 수치에는 IMO 2025 35 points, IOI 2025 439.3, LiveCodeBench v6 87.2, ArenaHard v2 평균 83.5가 포함된다.
  • 동일한 카드에서 long-context와 일부 agentic evaluation에서는 더 복합적인 결과도 보여 줘, 장점과 tradeoff를 함께 읽을 수 있다.

바로 이 균형이 LocalLLaMA thread의 의미다. 이 커뮤니티는 polished launch narrative보다 새로운 open model이 실제 speed-to-capability ratio를 얼마나 잘 맞추는지에 더 관심이 많다. Nemotron-Cascade-2-30B-A3B는 open distribution, 명시적인 reasoning control, 깊이 있는 benchmark를 함께 제시하면서 open-model stack에서 검토할 만한 또 하나의 진지한 선택지로 떠오르고 있다.

출처: r/LocalLLaMA thread, Hugging Face model card.

Share: Long

Related Articles

LLM Reddit 5d ago 2 min read

3월 15일 LocalLLaMA에서 높은 반응을 얻은 Nemotron license thread는 model release에서 weights만큼 중요한 것이 license wording임을 다시 보여 줬다. 공식 NVIDIA Nemotron Model License와 이전 Open Model License를 비교하면, community가 주목한 포인트는 예전 guardrail termination clause와 Trustworthy AI 참조가 사라지고, 대신 NOTICE 중심의 attribution 구조가 더 전면으로 나온 점이었다.

LLM Reddit 3d ago 2 min read

r/LocalLLaMA에서 92점과 25개 댓글을 받은 Covenant-72B는 20+ 참여자가 Bittensor blockchain 기반 인프라를 통해 72B parameters 모델을 from scratch로 함께 학습한 사례로 주목받았다. 공개된 핵심은 benchmark 우위 주장보다 permissionless collaborative training, SparseLoCo 기반 통신 절감, Apache 2.0 license, 그리고 separate Chat variant의 존재다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.