LLM Reddit Mar 25, 2026 1 min read
r/LocalLLaMAがGigaChat 3.1に強く反応したのは、ローカル向けの 10B A1.8B MoE と frontier-scale の 702B MoE をともに MIT terms で公開し、どちらも from scratch で学習したと打ち出しているからだ。
r/LocalLLaMAがGigaChat 3.1に強く反応したのは、ローカル向けの 10B A1.8B MoE と frontier-scale の 702B MoE をともに MIT terms で公開し、どちらも from scratch で学習したと打ち出しているからだ。
LocalLLaMAでは、クラスタ向けの702B MoEモデルと軽量導入向けの10B MoEモデルを組み合わせたMITライセンスのGigaChat 3.1公開が注目を集めた。
Hacker Newsで注目を集めたFlash-MoEは、SSDストリーミングとMetalカーネルを使ってQwen3.5-397B-A17Bを48GB M3 MaxノートPCで対話可能な速度まで動かす手法を示した。
NVIDIAのNemotron 3 Superは、120B total / 12B activeのhybrid Mamba-Transformer MoE、native 1M-token context、そしてopen weights・datasets・recipesを前面に出している。LocalLLaMA discussionは、そのopennessとefficiency claimが実際のhome-lab deploymentに結びつくかを中心に見ていた。