LocalLLaMA가 부각한 MIT 라이선스 GigaChat 3.1 오픈 웨이트, 702B와 10B 공개

Original: New open weights models: GigaChat-3.1-Ultra-702B and GigaChat-3.1-Lightning-10B-A1.8B View original →

Read in other languages: English日本語
LLM Mar 25, 2026 By Insights AI (Reddit) 1 min read Source

2026년 3월 24일 LocalLLaMA 글은 영어권 사용자들이 놓치기 쉬웠던 오픈 웨이트 공개를 끌어올렸다. GigaChat 3.1 Ultra와 GigaChat 3.1 Lightning이 Hugging Face에 MIT license로 공개된 것이다.

이번 공개는 서로 다른 두 운용 지점을 겨냥한다. GigaChat 3.1 Ultra는 702B parameter와 36B active parameter를 가진 Mixture-of-Experts 모델로 설명되며, 대규모 cluster inference를 목표로 한다. 반면 Lightning은 10B MoE와 1.8B active parameter 구성으로, 더 빠른 deployment와 가벼운 inference를 겨냥한다. 모델 페이지에는 FP8 checkpoint, BF16 variant, GGUF build도 함께 제시된다.

  • 모델 카드에는 Multi-head Latent Attention과 Multi-Token Prediction을 포함한 custom MoE stack이 설명되어 있다.
  • 또한 더 넓은 GigaChat 3 training corpus가 10개 언어와 약 5.5 trillion synthetic token을 포함하는 multilingual 데이터라고 적혀 있다.
  • Reddit 글은 English와 Russian 최적화, open weights, 그리고 DeepSeek V3, Qwen3, Gemma 3, 소형 tool-use baseline 대비 benchmark claim을 강조한다.

LocalLLaMA에서 이 글이 흥미로웠던 이유는 단순히 parameter 수 때문만은 아니다. 패키징 자체가 중요하다. Ultra는 cluster-scale 모델로, Lightning은 훨씬 작은 active compute budget으로도 tool use와 long-context capability를 최대한 유지하려는 모델로 읽힌다. FP8, BF16, GGUF를 함께 내놓으면서 실제로 실험 가능한 사용자 층을 넓혔다는 점도 크다.

다만 Reddit 글의 benchmark 수치는 아직 vendor-reported claim으로 보는 것이 맞다. 외부 평가가 더 쌓이기 전까지는 그대로 받아들이기보다 참고치로 보는 편이 안전하다. 그럼에도 이번 공개는 대형 클러스터용과 비교적 경량형 양쪽에서 모두 선택지를 늘리는 multilingual, MIT 라이선스 오픈 모델이라는 점에서 의미가 있다.

1차 정보: GigaChat 3.1 Hugging Face collection. 커뮤니티 출처: LocalLLaMA 토론.

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.