27B dense로 여기까지, Qwen3.6에 HN이 꽂힌 이유
Original: Qwen3.6-27B: Flagship-Level Coding in a 27B Dense Model View original →
27B dense인데도 왜 이렇게 시끄러운가
HN이 Qwen3.6-27B에 크게 반응한 이유는 숫자 큰 모델 하나 더 나왔기 때문이 아니었다. 27B dense라는 크기, 그리고 오픈 웨이트라는 조합이 주는 현실감이 컸다. 댓글도 이게 진짜 어느 하드웨어에서 돌아가느냐에 몰렸고, 소비자 장비에서 쓸 수 있는 코딩 모델의 문턱이 또 내려갔다는 반응이 이어졌다.
Qwen 설명에 따르면 이 모델은 27B 파라미터 dense 멀티모달 모델이다. SWE-bench Verified 77.2, SWE-bench Pro 53.5, Terminal-Bench 2.0 59.3처럼 주요 코딩 지표에서 이전 오픈소스 주력인 Qwen3.5-397B-A17B를 앞섰다. GPQA Diamond 87.8처럼 추론 지표도 버티고 있다. MoE 라우팅 복잡성이 없다는 점도 크다. 배포 경로가 단순해지고, 운영자가 계산해야 할 변수도 줄어든다.
HN 댓글이 특히 좋았던 건 실사용 감각이었다. 한 이용자는 16.8GB 양자화 모델이 20GB 안팎 메모리로도 꽤 괜찮다고 적었고, 다른 반응은 Gemma 4 이후 좁혀진 self-hosting 격차가 Qwen3.6에서 한 번 더 줄었다고 봤다. 또 누군가는 이제부터 모델 출시표에 소비자 하드웨어, 비용, token/s를 같이 적어야 한다고 했다. 딱 HN다운 시선이다.
- dense 구조라 운영 난도가 낮다
- 오픈 웨이트라 바로 실험과 배포가 가능하다
- 코딩 성능이 생각보다 가까운 로컬 환경까지 내려왔다
결국 이 글이 받은 호응은 벤치마크 승리보다 배치 가능한 크기에 있었다. HN은 Qwen3.6-27B를 작아졌다가 아니라 이제 진짜 돌려볼 수 있다는 신호로 읽었다. 오픈 모델 진영에서 체감 격차가 줄었다는 얘기가 괜히 나온 게 아니다.
Related Articles
중요한 점은 open-weight 27B dense 모델이 훨씬 큰 코딩 시스템과 agent task에서 직접 비교되고 있다는 데 있다. Qwen 모델 카드는 Qwen3.6-27B의 SWE-bench Verified를 77.2, Qwen3.5-397B-A17B를 76.2로 적었고 라이선스는 Apache 2.0이다.
LocalLLaMA는 Qwen3.6-27B를 model card가 아니라 바로 quantize하고 돌려볼 수 있는 ownership 순간으로 받아들였다.
HN이 먼저 본 포인트는 open weights였다. 35B MoE지만 active parameter가 3B인 모델이 실제 coding agent 일을 버틸 수 있느냐가 핵심이었다. Qwen은 Qwen3.5-35B-A3B 대비 큰 개선을 내세웠고, 댓글은 곧바로 GGUF 변환, Mac 메모리 한계, open model끼리만 비교한 benchmark 해석으로 옮겨갔다.
Comments (0)
No comments yet. Be the first to comment!