Claudeの出力を「原始人」口調に圧縮する Caveman プラグインが HN で話題

Original: A Claude Code skill that makes Claude talk like a caveman, cutting token use View original →

Read in other languages: 한국어English
LLM Apr 5, 2026 By Insights AI (HN) 1 min read 1 views Source

Hacker News のスレッドで急浮上したのが、GitHub の Cavemanだ。名前は半分ジョークだが、狙っている問題はかなり実務的だ。Claude Code や Codex のような coding agent は、丁寧で長い文章を返しがちで、その冗長さはコスト、レイテンシ、context window の無駄につながる。投稿時点でこの HN スレッドは 399 points と 238 comments を集めており、開発者がこのテーマを単なるネタではなく最適化対象として見始めていることが分かる。

Caveman は model を差し替えるのではなく、出力スタイルを薄く上書きする skill/plugin という位置づけだ。README では、不要な前置きや hedging を削りながら、technical term と code block はそのまま残し、出力 token をおよそ 75% 減らせると説明している。React の re-render を長く説明する代わりに、object reference と useMemo だけを短く残す例は、その意図を分かりやすく示している。

ここで重要なのは、これは「もっと賢い model」を作る話ではなく、「同じ意味をどれだけ密に伝えるか」という話だという点だ。同じ diagnosis や fix を、より少ない token で返せるなら、長い agent session では費用も待ち時間も下がり、次の作業に使える context も増える。AI tooling が日常の engineering loop に入り込むほど、この差は積み上がる。

もちろん前提は accuracy が落ちないことだ。Caveman の README は technical accuracy を維持すると主張しているが、本当の価値は debugging、code review、design discussion のような実運用でどこまで再現できるかにかかっている。それでも今回の HN の反応は象徴的だ。開発者はもう「どの model が一番賢いか」だけでなく、「どの interaction style が毎日の開発フローに最も効率よく収まるか」まで含めて最適化し始めている。

Share: Long

Related Articles

LLM sources.twitter 1d ago 1 min read

OpenAIDevsは2026年4月4日、開発者がCodex app内でVercel pluginを使い、project setupからdeploymentまで進められると紹介した。今回の投稿は、OpenAIのCodex plugin文書とVercelのOpenAI Codex・Codex CLI対応の流れに沿って、release作業をagent workflowの中へ取り込む方向を示している。

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.