r/LocalLLaMA가 짚은 transformer “danger zone”, layer duplication이 통하는 구간과 망가지는 구간

Original: I spent a weekend doing layer surgery on 6 different model architectures. There's a "danger zone" at 50% depth that kills every one of them. View original →

Read in other languages: English日本語
LLM Mar 18, 2026 By Insights AI (Reddit) 2 min read Source

r/LocalLLaMA의 이 self-post가 주목받는 이유는 local-model 커뮤니티에서 반복적으로 나오는 질문에 정면으로 답하려 하기 때문이다. retraining 없이 transformer layer를 복제하면 reasoning이 좋아질 수 있다는 이야기는 꾸준히 돌았지만, 실제로 어디서 통하고 어디서 깨지는지는 늘 모호했다. 이 글은 72 upvotes와 21 comments를 모았고, 실험 환경도 비교적 구체적이다. 작성자는 Apple Silicon M3 Ultra와 512GB memory, MLX만으로 주말 동안 실험을 돌렸다고 밝힌다. cloud API도 없고, training run도 없으며, “체감상 더 똑똑해졌다” 같은 모호한 서술 대신 automated coding benchmark를 사용했다는 점을 강조한다.

글이 말하는 danger zone

핵심 주장은 model depth의 대략 50%에서 56% 구간에 반복적으로 나타나는 danger zone이 있다는 것이다. 이 범위의 layer를 복제하거나 건드리면 여러 architecture에서 성능이 떨어지거나 output quality 자체가 무너졌다는 설명이다. 작성자는 이 영역이 재사용 가능한 reasoning block이라기보다 routing infrastructure에 가깝다고 본다. 글의 표현을 빌리면 이 layer들은 “load-bearing”이다. 지우거나, 두 번 넣거나, 다른 model의 것을 이식하면 나머지 회로가 함께 흔들린다는 주장이다.

가장 구체적인 사례는 Hybrid 9B 실험이다. baseline은 benchmark에서 4/10이었지만, 75%에서 84% 깊이의 layer를 복제했을 때 7/10까지 올라갔다고 한다. 반대로 56%에서 65% 구간을 건드리면 2/10으로 떨어졌다고 적는다. double-stack, triple-stack, danger zone 삭제 같은 변형도 모두 더 나쁜 결과를 냈다고 보고한다. 결론은 단순하다. 더 많이 “생각하게” 만든다고 항상 좋아지는 것이 아니다. 한 번의 extra pass는 도움이 될 수 있지만, 임계점을 넘으면 회로 전체가 무너질 수 있다는 것이다.

왜 이 글이 눈에 띄는가

이 post가 흥미로운 이유는 사례 범위가 넓기 때문이다. Dense 32B, Hybrid 9B, MoE 30B, Dense 3B, cross-model transplant 7B까지 함께 비교한다. architecture별 패턴도 다르게 나온다. dense model은 한 깊이 구간이 유리했고, MoE는 reasoning core가 더 앞에 있는 듯한 결과가 나왔으며, 대략 3B parameters 이하 model은 얻는 이득이 거의 없었다고 한다. 가장 분명한 실패는 cross-model transplant였다. tensor dimension이 맞아도 다른 model의 layer를 끼워 넣으면 성능이 심하게 무너지거나 아예 붕괴했다는 주장이다. 작성자는 이를 internal representation이 model마다 너무 특수해서 단순 교체가 통하지 않는다는 신호로 읽는다.

댓글은 좋은 견제도 제공한다. 상위 댓글 중 하나는 retraining 없이 architecture surgery만으로 안정적인 성능 개선을 기대하는 것 자체가 의심스럽고, 관찰된 이득이 narrow benchmark의 산물일 수 있다고 지적한다. 이 caveat는 중요하다. 이 글은 peer-reviewed paper가 아니라 self-reported experiment이고, 방법론도 coding task 중심이다. 그럼에도 가치가 있는 이유는 vague한 Frankenmerge lore를 testable claim으로 바꿨기 때문이다. optimal duplication zone이 있을 수 있고, mid-depth 구간은 건드리면 안 될 수 있으며, cross-model transplant는 생각보다 훨씬 덜 유망할 수 있다는 식의 가설을 구체화해 준다.

Share: Long

Related Articles

LLM Hacker News 4d ago 2 min read

Percepta는 2026년 3월 11일 공개한 글에서 transformer 내부에 computer를 만들고, arbitrary C program을 수백만 step 실행하며, 2D attention head로 inference를 지수적으로 가속할 수 있다고 주장했다. HN 이용자들은 흥미로운 연구 방향으로 봤지만, 더 명확한 설명과 benchmark, 실제 확장성에 대한 근거를 요구했다.

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.