Qwen3.6でLocalLLaMAが沸いた理由は、benchmarkではなくagentの自己修正だった
Original: Qwen3.6. This is it. View original →
Community Spark
r/LocalLLaMAの#1so1533は976 points、392 commentsまで伸びた。Titleは「Qwen3.6. This is it.」だけだったが、threadが盛り上がった理由はbenchmark chartではない。PosterはQwen3.6-35B-A3B-UD-Q6_K_XLをlocal llama.cpp serverで動かし、OpenCode workflow内でtower defense gameを作らせたと書いた。反応を呼んだのは、agentがscreenshotsを見てcanvas rendering issueを認識し、wave completion bugもtesting中に直したという部分だった。
What The Post Showed
SelftextにはLocalLLaMAらしいraw configが並んでいた。long context、CPU MoE、Q6 quant、mmproj file、custom chat template、大きなllama-server commandだ。PosterはOpenCodeのaliasがまだQwen3.5-27Bのままだったと訂正しつつ、実際のserver configはQwen3.6だと説明した。この雑さは、polished demoというより、動いたsetupをそのままsubredditへ持ち込んだ雰囲気を強めていた。
Commentsもpractical angleへ向かった。software stack、model size、quant、local setupを尋ねる声が多い。あるcommenterはGemmaで詰まっていたbroken projectをQwen3.6が直したと述べ、agentic toolsでのspeedと反応の軽さを強調した。もちろんこれはcontrolled evaluationではない。それでもthreadの熱量は、raw model talkよりworkflowへの反応だった。
Why It Matters
Local model discussionはbenchmark percentageの比較で終わりがちだ。今回のthreadはもっと具体的な問いを出した。local modelがcoding loopの中に入り、app stateを見て、failuresを直せるのか。codeやscreenshotsをhosted serviceへ送らずにそれができるのか。既に公開済みのM5 Max上のQwen3.6 threadがhardware feasibilityなら、これはagent loopの手触りに近い。
1つのReddit reportだけでQwen3.6の能力を証明することはできない。Prompt、scaffold、tool access、quantization、task difficultyが結果を大きく左右する。それでもcommunity signalは明確だ。r/LocalLLaMAは、local LLMsがanswer boxから、real workspace内でobserve、test、reviseできるagentへ移る瞬間を見ている。
Related Articles
r/LocalLLaMAでこの比較が受けたのは、GGUF選びを評判や体感ではなく、baselineとの分布差で説明したからだ。投稿者はBF16 baselineに対するmean KLDでQwen3.5-9Bのcommunity quantを並べ、Q8_0系はfaithfulness上位、複数のIQ4とQ5系はsizeとdriftのバランス候補として示している。
Alibaba CloudはQwen3.6-Plusを1M context window、agentic coding、multimodal reasoningを備えた実運用向けモデルとして打ち出し、HNでも主要なAIトピックとして浮上した。
LocalLLaMAが反応したのは、大きなMoE modelを限られたVRAMで動かす時の痛点を現実的に突いていたからだ。投稿者はQwen3.5-122B-A10Bで、最近routeされたexpertを追跡してhotなものだけVRAM cacheに置くllama.cpp forkを試し、同程度の22GB台VRAM使用量でlayer-based offloadよりtoken generationが26.8%速いと共有した。
Comments (0)
No comments yet. Be the first to comment!