LocalLLaMAで注目されたMITライセンスのGigaChat 3.1、702Bと10Bを公開
Original: New open weights models: GigaChat-3.1-Ultra-702B and GigaChat-3.1-Lightning-10B-A1.8B View original →
2026年3月24日、LocalLLaMAの投稿によって、英語圏では見落とされがちだったopen weight公開が浮上した。GigaChat 3.1 UltraとGigaChat 3.1 Lightningが、Hugging Face上でMIT licenseのもと公開されたのである。
今回の公開は、かなり異なる二つの運用点を狙っている。GigaChat 3.1 Ultraは702B parameter、36B active parameterのMixture-of-Expertsモデルとして説明され、大規模cluster inferenceを想定する。一方のLightningは10B MoE、1.8B active parameter構成で、より速いdeploymentと軽いinferenceを狙う。モデルページにはFP8 checkpoint、BF16 variant、GGUF buildも用意されている。
- モデルカードでは、Multi-head Latent AttentionとMulti-Token Predictionを含むcustom MoE stackが説明されている。
- さらに、より広いGigaChat 3 training corpusは10言語と約5.5 trillion synthetic tokenからなるmultilingualデータだと記されている。
- Reddit投稿は、EnglishとRussianへの最適化、open weights、そしてDeepSeek V3、Qwen3、Gemma 3、小規模tool-use baselineに対するbenchmark claimを強調している。
LocalLLaMAでこのスレッドが面白かったのは、単にparameter数が大きいからではない。重要なのはパッケージの出し方だ。Ultraはcluster-scaleモデルとして、Lightningはずっと小さいactive compute budgetでtool useとlong-context capabilityを維持しようとするモデルとして提示されている。FP8、BF16、GGUFをそろえたことで、読むだけではなく実際に試せる層を広げた点も大きい。
ただし、Reddit投稿内のbenchmark値は現時点ではvendor-reported claimとして扱うのが妥当だ。外部評価が増えるまでは、そのまま確定的に受け取るべきではない。それでも今回の公開は、large-cluster向けと比較的軽量な導入向けの両方で、multilingualかつMITライセンスの選択肢をopen modelのプールに加えたという意味で十分に重要だ。
一次情報: GigaChat 3.1 Hugging Face collection。コミュニティ出典: LocalLLaMAスレッド。
Related Articles
Hacker Newsで注目を集めたFlash-MoEは、SSDストリーミングとMetalカーネルを使ってQwen3.5-397B-A17Bを48GB M3 MaxノートPCで対話可能な速度まで動かす手法を示した。
r/LocalLLaMA の新しいスレッドでは、NVIDIA の Nemotron-Cascade-2-30B-A3B が medium Qwen 3.5 系より強い coding 結果を出せるとして注目を集めた。community benchmark と NVIDIA の model card を並べると、local inference のコストと reasoning 性能の新しい折り合いが見えてくる。
2026年3月16日のr/LocalLLaMAで、Mistral Small 4の投稿は最新利用可能クロールで606 pointsと232 commentsを集めた。Mistralのモデルカードは、4 active experts、256k context、マルチモーダル入力、リクエスト単位のreasoning切替を備えた119B級MoEを説明している。
Comments (0)
No comments yet. Be the first to comment!