LocalLLaMA가 부각한 MIT 라이선스 GigaChat 3.1 오픈 웨이트, 702B와 10B 공개
Original: New open weights models: GigaChat-3.1-Ultra-702B and GigaChat-3.1-Lightning-10B-A1.8B View original →
2026년 3월 24일 LocalLLaMA 글은 영어권 사용자들이 놓치기 쉬웠던 오픈 웨이트 공개를 끌어올렸다. GigaChat 3.1 Ultra와 GigaChat 3.1 Lightning이 Hugging Face에 MIT license로 공개된 것이다.
이번 공개는 서로 다른 두 운용 지점을 겨냥한다. GigaChat 3.1 Ultra는 702B parameter와 36B active parameter를 가진 Mixture-of-Experts 모델로 설명되며, 대규모 cluster inference를 목표로 한다. 반면 Lightning은 10B MoE와 1.8B active parameter 구성으로, 더 빠른 deployment와 가벼운 inference를 겨냥한다. 모델 페이지에는 FP8 checkpoint, BF16 variant, GGUF build도 함께 제시된다.
- 모델 카드에는 Multi-head Latent Attention과 Multi-Token Prediction을 포함한 custom MoE stack이 설명되어 있다.
- 또한 더 넓은 GigaChat 3 training corpus가 10개 언어와 약 5.5 trillion synthetic token을 포함하는 multilingual 데이터라고 적혀 있다.
- Reddit 글은 English와 Russian 최적화, open weights, 그리고 DeepSeek V3, Qwen3, Gemma 3, 소형 tool-use baseline 대비 benchmark claim을 강조한다.
LocalLLaMA에서 이 글이 흥미로웠던 이유는 단순히 parameter 수 때문만은 아니다. 패키징 자체가 중요하다. Ultra는 cluster-scale 모델로, Lightning은 훨씬 작은 active compute budget으로도 tool use와 long-context capability를 최대한 유지하려는 모델로 읽힌다. FP8, BF16, GGUF를 함께 내놓으면서 실제로 실험 가능한 사용자 층을 넓혔다는 점도 크다.
다만 Reddit 글의 benchmark 수치는 아직 vendor-reported claim으로 보는 것이 맞다. 외부 평가가 더 쌓이기 전까지는 그대로 받아들이기보다 참고치로 보는 편이 안전하다. 그럼에도 이번 공개는 대형 클러스터용과 비교적 경량형 양쪽에서 모두 선택지를 늘리는 multilingual, MIT 라이선스 오픈 모델이라는 점에서 의미가 있다.
1차 정보: GigaChat 3.1 Hugging Face collection. 커뮤니티 출처: LocalLLaMA 토론.
Related Articles
Hacker News에서 주목받은 Flash-MoE는 SSD 스트리밍과 Metal 커널을 이용해 Qwen3.5-397B-A17B를 48GB M3 Max 노트북에서 대화 가능한 속도로 실행하는 방법을 공개했다.
r/LocalLLaMA의 새 스레드는 NVIDIA의 Nemotron-Cascade-2-30B-A3B가 중형 Qwen 3.5 계열보다 더 강한 coding 결과를 낼 수 있다고 주장하며 주목을 끌었다. community benchmark와 NVIDIA의 model card를 함께 보면, local inference 비용과 reasoning 성능 사이의 새로운 균형점을 찾으려는 흐름이 읽힌다.
2026년 3월 16일 r/LocalLLaMA의 Mistral Small 4 글은 최신 사용 가능 크롤 기준 606 points와 232 comments를 기록했다. Mistral 모델 카드는 4 active expert, 256k context, 멀티모달 입력, 요청별 reasoning 전환을 갖춘 119B급 MoE를 설명한다.
Comments (0)
No comments yet. Be the first to comment!