Claude를 ‘원시인 화법’으로 바꿔 토큰을 줄이는 Caveman 플러그인, HN 화제
Original: A Claude Code skill that makes Claude talk like a caveman, cutting token use View original →
Hacker News의 이 토론은 GitHub 저장소 Caveman을 중심으로 빠르게 확산됐다. 제목은 장난스럽지만 문제의식은 꽤 실용적이다. Claude Code나 Codex 같은 coding agent가 점점 길고 공손한 문장을 쏟아내는 상황에서, 같은 기술적 의미를 더 적은 토큰으로 전달할 수 있느냐는 비용, 지연시간, context window 모두에 직결되는 질문이기 때문이다. 이 글이 올라온 시점에 HN에서는 399 points와 238 comments를 모았다.
Caveman은 model 자체를 바꾸는 프로젝트가 아니라 응답 스타일을 얇게 덧씌우는 skill/plugin에 가깝다. README는 불필요한 완곡어법과 군더더기를 제거해 출력 토큰을 약 75% 줄일 수 있다고 설명한다. 대신 code block은 정상적인 형식을 유지하고, technical term도 그대로 보존한다. 예시에서는 React re-render 원인을 길게 풀어 쓰던 답변이 object reference와 useMemo만 남긴 짧은 문장으로 압축된다.
그래서 이 프로젝트는 단순한 밈이 아니라 AI 개발 도구의 새로운 최적화 지점을 보여준다. 모델 품질이 일정 수준을 넘은 뒤에는 “무엇을 말하느냐”뿐 아니라 “얼마나 조밀하게 말하느냐”도 생산성 차이를 만든다. 같은 diagnosis, 같은 fix, 같은 command를 더 짧게 출력할 수 있다면 긴 session에서 누적되는 비용과 대기시간을 줄이고, 후속 작업에 쓸 수 있는 context budget도 아낄 수 있다.
물론 핵심 전제는 accuracy가 유지돼야 한다는 점이다. Caveman README는 technical accuracy를 지킨다고 주장하지만, 실제 가치는 debugging, code review, architecture discussion 같은 다양한 workflow에서 검증돼야 한다. 그럼에도 이번 HN 반응은 분명하다. 개발자들은 이제 “가장 똑똑한 model”만 묻지 않고, 매일의 engineering loop 안에서 가장 효율적으로 쓸 수 있는 interaction style이 무엇인지도 적극적으로 실험하고 있다.
Related Articles
Hacker News에서 주목받은 Alex Kim의 분석은 Claude Code 유출 소스맵에서 fake tools, frustration regex, undercover mode 같은 내부 설계를 드러냈다. 논점은 단순 유출이 아니라 개발자용 AI 도구에 숨겨진 anti-distillation과 telemetry의 범위다.
Hacker News에서 Ahmed Nagdy의 인터랙티브 Claude Code 학습 사이트가 주목받았다. 이 사이트는 slash commands, CLAUDE.md, hooks, skills, MCP, plugins를 브라우저 실습 중심으로 묶어 보여준다.
OpenAIDevs는 2026년 4월 4일 개발자가 Codex app 안에서 Vercel plugin을 사용해 프로젝트 설정부터 배포까지 이어갈 수 있다고 밝혔다. 이번 게시물은 OpenAI의 Codex plugin 문서와 Vercel의 OpenAI Codex·Codex CLI 지원 발표와 맞물려, 배포 단계까지 agent workflow 안으로 끌어들이는 흐름을 보여준다.
Comments (0)
No comments yet. Be the first to comment!