27BモデルがSonnet 4.6に並んだという話でLocalLLaMAは沸いたが、議論はすぐベンチ最適化と実運用条件の確認に移った。
#local-llm
RSS Feedr/LocalLLaMAのMacBook Air M5 benchmarkは、Qwen 3.6 35B-A3Bの89.6% HumanEval+だけでなく、RAMとtok/sを一緒に見る実用的な視点を出した。
r/LocalLLaMAの投稿は正式なbenchmarkではないが、hosted modelがupdateやfilterで揺れる中、local modelのcontrolが価値になるというcommunity moodをよく表している。
LocalLLaMAはQwen3.6-27Bを単なるmodel cardではなく、すぐquantizeして手元で試せるownershipの話として受け止めた。
LocalLLaMAが反応したのは翻訳appそのものではなく、detection、visual OCR、inpainting、local LLMを一つのworkflowにした点だった。
LocalLLaMAが反応したのは新model自慢ではなく、--fitが「VRAMに全部入らなければ遅い」という経験則を揺らしたからだ。
r/LocalLLaMAが900 points超まで反応した理由はscore表ではない。local coding agentがcanvas bugとwave completion issueを見つけて直したという使用感だった。
r/LocalLLaMAがこの投稿を押し上げたのは、“trust me bro”な体験談の中に8-bit、64k context、OpenCode、Android debuggingという実使用条件が入っていたからだ。
LocalLLaMAがこのmergeに反応したのは、すぐ試せるからだ。ただしthreadの有益なcaveatは、speedupがpromptの反復性とdraft acceptanceに大きく依存する点だった。
LocalLLaMAで伸びた理由は、単なる「新モデルが強い」という話ではなかった。投稿者はM5 Max 128GB環境で、普段ならOpusやCodexに任せるworkloadをQwen 3.6で試したとし、実用上のポイントとしてpreserve_thinkingを有効にする必要を挙げた。
r/LocalLLaMAのthreadはlocal tool calling失敗談を、OpenWebUI、native tool calls、quant、runtime、wrapperのチェックリストへ変えた。
r/LocalLLaMAが反応したのは具体的な数字だ。RTX 5070 Tiで128K context、79 t/s、その鍵がllama.cppのflagに絞られた。