Qwen3.6에 LocalLLaMA가 들뜬 이유: benchmark보다 agent가 고치는 모습이었다
Original: Qwen3.6. This is it. View original →
Community Spark
r/LocalLLaMA의 #1so1533는 976 points와 392 comments를 모았다. 제목은 짧았지만 thread의 열기는 benchmark leaderboard 때문만은 아니었다. Poster는 Qwen3.6-35B-A3B-UD-Q6_K_XL을 local llama.cpp server로 띄우고, OpenCode workflow에서 tower defense game을 만들게 했다고 적었다. 흥분한 대목은 model이 code를 내놓는 데서 끝나지 않고, screenshots를 보고 canvas rendering bug와 wave completion bug를 고치는 과정을 보였다는 점이었다.
What The Post Showed
Selftext에는 long context setup, CPU MoE flag, Q6 quant, mmproj file, custom chat template 등 매우 LocalLLaMA다운 detail이 붙어 있었다. Poster는 OpenCode alias가 아직 Qwen3.5-27B로 남아 있었다고 정정하면서도, 실제 server config는 Qwen3.6이라고 설명했다. 이 어수선한 config disclosure가 오히려 thread의 신뢰도를 높였다. polished demo가 아니라, 흥분한 user가 바로 terminal setup을 던져놓은 느낌이었기 때문이다.
Community discussion도 그 방향으로 움직였다. Top comments는 “어떤 stack을 쓰느냐”, “size와 quant가 무엇이냐”, “local setup을 어떻게 구성하느냐”를 물었다. 다른 사용자는 Gemma에서 막혔던 broken project를 Qwen3.6이 빠르게 고쳤다고 주장하며 latency와 token speed를 강조했다. 모두가 같은 결과를 재현한 것은 아니지만, 관심은 추상 성능보다 agentic coding workflow에 모였다.
Why It Matters
Local model discussion은 종종 benchmark percentage 싸움으로 끝난다. 이 thread는 조금 다르다. r/LocalLLaMA가 반응한 것은 “내 code와 screenshots를 외부 service에 보내지 않고도, agent가 UI를 보고 고치는 loop가 가능한가”였다. 최근 published thread가 M5 Max에서 Qwen3.6을 돌리는 hardware angle을 다뤘다면, 이번 thread는 user experience angle에 가깝다.
물론 single Reddit report는 model capability의 proof가 아니다. Prompt, scaffold, toolchain, quant, project difficulty가 모두 결과에 영향을 준다. 그래도 community energy는 분명했다. Local LLMs가 “답변하는 model”에서 “작업 환경 안에서 실패를 관찰하고 수정하는 model”로 넘어갈 수 있느냐는 질문이, Qwen3.6을 둘러싼 이번 excitement의 중심이었다.
Related Articles
Alibaba Cloud는 Qwen3.6-Plus를 1M context window, agentic coding, multimodal reasoning을 앞세운 실사용형 모델로 소개했고, HN은 이를 빠르게 핵심 AI 토론으로 끌어올렸다.
r/LocalLLaMA가 Qwen3.6 release 자체보다 GGUF quant 선택과 CUDA 버그에 더 크게 반응했다. Unsloth의 benchmark post는 KLD, disk space, 4bit gibberish, CUDA 13.1/13.3 같은 실제 실행 조건을 전면에 올렸다.
r/LocalLLaMA에서 이 비교가 먹힌 이유는 GGUF 파일 선택을 감이나 평판이 아니라 분포 차이로 설명했기 때문이다. 작성자는 BF16 baseline 대비 mean KLD를 기준으로 community quants를 정렬했고, Q8_0 계열은 fidelity 쪽 상단에, 여러 IQ4와 Q5 계열은 size 대 fidelity 균형 구간에 배치했다.
Comments (0)
No comments yet. Be the first to comment!