HN이 주목한 llm-circuit-finder: layer duplication은 LLM 향상의 지름길인가, capability steering인가

Original: Show HN: Duplicate 3 layers in a 24B LLM, logical deduction .22→.76. No training View original →

Read in other languages: English日本語
LLM Mar 21, 2026 By Insights AI (HN) 2 min read Source

무엇이 올라왔나

llm-circuit-finder는 transformer 내부의 reasoning circuits를 찾아, 같은 hidden states가 같은 block을 한 번 더 지나가도록 routing하는 실험용 toolkit이다. 핵심 claim은 단순하다. training도 없고, weight changes도 없고, 선택한 layers를 duplicated path로 다시 통과시키는 것만으로 특정 capability를 끌어올릴 수 있다는 것이다. Show HN 글은 작성자가 David Ng의 RYS method를 RX 7900 XT + RX 6950 XT에서 재현했고, Devstral-24B와 Qwen2.5-Coder-32B에서 강한 변화를 봤다고 요약했다.

  • Devstral-24B에서 layers 12-14 duplicated once: BBH Logical Deduction 0.22 to 0.76, GSM8K strict 0.48 to 0.64, MBPP 0.72 to 0.78.
  • Qwen2.5-Coder-32B에서 layers 7-9 duplicated once: reasoning probe 76% to 94%.
  • README는 sweep.py, layer_path.py, gguf_surgery.py, compare_eval.py, visualize.py를 제공해 sweep, GGUF surgery, evaluation comparison, visualization을 한 묶음으로 다룬다.

source material만 보면 흥미로운 지점은 명확하다. 특정 contiguous block을 정확히 고르면 reasoning circuit을 다시 태우는 효과가 나오고, 한 layer만 옮겨도 효과가 사라지거나 반전될 수 있다는 주장이다. README는 different duplication patterns가 서로 다른 cognitive modes를 만들 수 있다고도 설명한다. 즉 같은 weights로도 route를 바꾸면 능력 profile이 달라질 수 있다는 이야기다.

왜 headline만 믿으면 안 되나

문제는 README를 끝까지 읽으면 그림이 더 복잡해진다는 점이다. 이 프로젝트가 보여 주는 것은 universal improvement라기보다 capability steering에 가깝다. reasoning-heavy task에서는 좋아질 수 있지만, instruction following이나 code task에서는 반대로 약해질 수 있다. 그래서 이 접근을 단순한 성능 향상으로 읽으면 과장에 가깝다.

특히 HN 본문은 Nothing degraded라고 적었지만, README의 full benchmark table은 tradeoff를 분명히 보여 준다. Devstral surgery는 일부 reasoning metric을 개선했지만 IFEval/MBPP를 낮췄고, listed metrics 전체 average도 0.7610 to 0.7488로 내려갔다. 즉 0.22 to 0.76 같은 headline 숫자는 분명 인상적이지만, 모델 전체가 공짜로 좋아졌다고 말할 수는 없다. user-facing workload가 reasoning 하나로만 구성되지 않는다면 이 차이는 매우 중요하다.

비용도 무시하기 어렵다. README는 same weights, no training, different routing이라는 개념을 강조하지만, 현재 구현은 duplicated layers를 GGUF에 physical copies로 넣는다. 그래서 24B model에 3 extra layers를 추가하면 about 1.5 GiB extra VRAM이 필요하고 inference는 about 7.5% slower다. 아이디어 자체는 model surgery에 가깝고, 운영 관점에서는 memory와 latency를 실제로 더 지불해야 한다.

왜 HN thread가 중요했나

이 이야기가 community-sourced article로 의미 있었던 이유는 GitHub README만이 아니라 HN discussion이 claim을 바로 검증하려 했기 때문이다. 해당 thread는 257 points, 82 comments를 모았고, 댓글들은 prior art, novelty, benchmark coverage, deployment practicality를 집중적으로 물었다. 몇몇 참여자는 layer replay와 duplication이 완전히 새로운 발상은 아니라고 지적했고, 작성자는 새로운 점이 있다면 model별 exact 3-layer boundary를 systematic하게 찾는 toolkit과 standard benchmarks 기반 validation이라고 설명했다.

실무자에게 중요한 포인트도 여기에 있다. 만약 이것이 universal reasoning upgrade가 아니라 route-specific steering이라면, 다음 질문이 남는다. 다른 seeds와 prompts에서도 같은가, quantization이나 runtime이 바뀌어도 유지되는가, downstream fine-tuning 뒤에도 같은 boundary가 유효한가, 평균 성능 하락을 감수할 만큼 얻는 capability가 충분한가. HN thread는 바로 이런 질문을 공개적으로 끌어냈기 때문에 단순한 hype보다 훨씬 가치가 있었다.

현재 단계에서 llm-circuit-finder는 LLM을 universally better하게 만든다는 증거라기보다, layer routing만으로 능력 profile을 재조정할 수 있다는 흥미로운 사례로 읽는 편이 맞다. 재현 가능한 script와 구체적 benchmark delta를 공개했다는 점은 분명 강점이지만, practitioners는 이를 free win이 아니라 explicit tradeoff가 있는 capability steering 실험으로 다뤄야 한다.

원문 소스는 https://github.com/alainnothere/llm-circuit-finder, HN discussion은 https://news.ycombinator.com/item?id=47431671에서 확인할 수 있다.

Share: Long

Related Articles

LLM Reddit 4d ago 2 min read

r/LocalLLaMA에서 높은 반응을 얻은 글은 Unsloth Studio를 train, run, export를 한 번에 다루는 beta 오픈소스 web UI로 소개했다. Reddit에서는 GGUF 생태계의 LM Studio 경쟁자 가능성이 거론됐지만, 상위 댓글에서는 고급 사용자가 여전히 vLLM이나 직접 llama.cpp를 선호한다는 반론도 나왔다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.