Local tool calling 현실 점검: r/LocalLLaMA가 본 문제는 model보다 harness였다
Original: Are you guys actually using local tool calling or is it a collective prank? View original →
Community Spark
r/LocalLLaMA의 thread는 “local tool calling이 실제로 되는가”라는 직설적인 질문으로 100 points 안팎과 140개 넘는 comments를 모았다. 작성자는 Open WebUI, Docker Terminal, LM Studio 조합에서 Qwen3.5 27B/35B, Gemma4 26B, Qwen3.6 35B, GPT-OSS 20B를 써봤지만 file creation이 실패하거나 빈 파일을 성공처럼 설명하고, executing loop에 걸린다고 적었다.
댓글의 첫 반응
상위 댓글들은 “local model이 전부 안 된다”보다 harness 문제를 먼저 의심했다. 여러 사용자가 OpenWebUI를 weak link로 지목했고, OpenCode에서는 같은 류의 tool calling이 훨씬 낫다고 말했다. Cline in VSCode나 llama.cpp, LM Studio runtime을 조합해 안정적으로 쓴다는 답도 있었다. 즉 model family보다 UI wrapper와 tool-call protocol handling이 결과를 크게 바꾼다는 쪽으로 의견이 모였다.
기술적으로 갈린 변수
커뮤니티가 반복해서 짚은 변수는 quantization, native tool calling 설정, reasoning field 처리였다. 한 댓글은 Q5 이하의 aggressive quant가 작은 model에서 문제를 만들 수 있다고 했고, 다른 댓글은 OpenWebUI가 reasoning을 API field가 아니라 think tags처럼 돌려주는 경우를 지적했다. OpenWebUI의 prompted tool calling 기본값과 native tool calling 설정 차이도 중요한 체크리스트로 올라왔다.
Takeaway
이 thread의 값은 benchmark보다 운영 감각에 있다. local tool calling은 “된다/안 된다”가 아니라 model, quant, runtime, harness, tool schema, async shell behavior가 함께 맞아야 한다. r/LocalLLaMA의 결론은 냉정하다. Qwen 계열 같은 model이 좋아졌더라도, wrapper가 reasoning과 tool calls를 정확히 전달하지 못하면 사용자는 hallucinated file write와 stuck execution을 경험한다. local agents를 평가할 때는 model name보다 full stack을 기록해야 한다.
Source: r/LocalLLaMA discussion.
Related Articles
r/LocalLLaMA에서 이 비교가 먹힌 이유는 GGUF 파일 선택을 감이나 평판이 아니라 분포 차이로 설명했기 때문이다. 작성자는 BF16 baseline 대비 mean KLD를 기준으로 community quants를 정렬했고, Q8_0 계열은 fidelity 쪽 상단에, 여러 IQ4와 Q5 계열은 size 대 fidelity 균형 구간에 배치했다.
r/LocalLLaMA가 Qwen3.6 release 자체보다 GGUF quant 선택과 CUDA 버그에 더 크게 반응했다. Unsloth의 benchmark post는 KLD, disk space, 4bit gibberish, CUDA 13.1/13.3 같은 실제 실행 조건을 전면에 올렸다.
LocalLLaMA가 이 글을 올려준 이유는 복잡한 GGUF 선택을 측정 가능한 tradeoff로 바꿨기 때문이다. 글은 community Qwen3.5-9B quant를 BF16 baseline과 mean KLD로 비교했고, 댓글은 chart 표현, Gemma 4, Thireus quant, long-context test까지 요구했다.
Comments (0)
No comments yet. Be the first to comment!