LocalLLaMAで注目されたMITライセンスのGigaChat 3.1、702Bと10Bを公開

Original: New open weights models: GigaChat-3.1-Ultra-702B and GigaChat-3.1-Lightning-10B-A1.8B View original →

Read in other languages: 한국어English
LLM Mar 25, 2026 By Insights AI (Reddit) 1 min read Source

2026年3月24日、LocalLLaMAの投稿によって、英語圏では見落とされがちだったopen weight公開が浮上した。GigaChat 3.1 UltraとGigaChat 3.1 Lightningが、Hugging Face上でMIT licenseのもと公開されたのである。

今回の公開は、かなり異なる二つの運用点を狙っている。GigaChat 3.1 Ultraは702B parameter、36B active parameterのMixture-of-Expertsモデルとして説明され、大規模cluster inferenceを想定する。一方のLightningは10B MoE、1.8B active parameter構成で、より速いdeploymentと軽いinferenceを狙う。モデルページにはFP8 checkpoint、BF16 variant、GGUF buildも用意されている。

  • モデルカードでは、Multi-head Latent AttentionとMulti-Token Predictionを含むcustom MoE stackが説明されている。
  • さらに、より広いGigaChat 3 training corpusは10言語と約5.5 trillion synthetic tokenからなるmultilingualデータだと記されている。
  • Reddit投稿は、EnglishとRussianへの最適化、open weights、そしてDeepSeek V3、Qwen3、Gemma 3、小規模tool-use baselineに対するbenchmark claimを強調している。

LocalLLaMAでこのスレッドが面白かったのは、単にparameter数が大きいからではない。重要なのはパッケージの出し方だ。Ultraはcluster-scaleモデルとして、Lightningはずっと小さいactive compute budgetでtool useとlong-context capabilityを維持しようとするモデルとして提示されている。FP8、BF16、GGUFをそろえたことで、読むだけではなく実際に試せる層を広げた点も大きい。

ただし、Reddit投稿内のbenchmark値は現時点ではvendor-reported claimとして扱うのが妥当だ。外部評価が増えるまでは、そのまま確定的に受け取るべきではない。それでも今回の公開は、large-cluster向けと比較的軽量な導入向けの両方で、multilingualかつMITライセンスの選択肢をopen modelのプールに加えたという意味で十分に重要だ。

一次情報: GigaChat 3.1 Hugging Face collection。コミュニティ出典: LocalLLaMAスレッド

Share: Long

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.