#local-llm

RSS Feed
LLM Reddit Apr 19, 2026 1 min read

LocalLLaMAで伸びた理由は、単なる「新モデルが強い」という話ではなかった。投稿者はM5 Max 128GB環境で、普段ならOpusやCodexに任せるworkloadをQwen 3.6で試したとし、実用上のポイントとしてpreserve_thinkingを有効にする必要を挙げた。

© 2026 Insights. All rights reserved.