Claudeの出力を「原始人」口調に圧縮する Caveman プラグインが HN で話題
Original: A Claude Code skill that makes Claude talk like a caveman, cutting token use View original →
Hacker News のスレッドで急浮上したのが、GitHub の Cavemanだ。名前は半分ジョークだが、狙っている問題はかなり実務的だ。Claude Code や Codex のような coding agent は、丁寧で長い文章を返しがちで、その冗長さはコスト、レイテンシ、context window の無駄につながる。投稿時点でこの HN スレッドは 399 points と 238 comments を集めており、開発者がこのテーマを単なるネタではなく最適化対象として見始めていることが分かる。
Caveman は model を差し替えるのではなく、出力スタイルを薄く上書きする skill/plugin という位置づけだ。README では、不要な前置きや hedging を削りながら、technical term と code block はそのまま残し、出力 token をおよそ 75% 減らせると説明している。React の re-render を長く説明する代わりに、object reference と useMemo だけを短く残す例は、その意図を分かりやすく示している。
ここで重要なのは、これは「もっと賢い model」を作る話ではなく、「同じ意味をどれだけ密に伝えるか」という話だという点だ。同じ diagnosis や fix を、より少ない token で返せるなら、長い agent session では費用も待ち時間も下がり、次の作業に使える context も増える。AI tooling が日常の engineering loop に入り込むほど、この差は積み上がる。
もちろん前提は accuracy が落ちないことだ。Caveman の README は technical accuracy を維持すると主張しているが、本当の価値は debugging、code review、design discussion のような実運用でどこまで再現できるかにかかっている。それでも今回の HN の反応は象徴的だ。開発者はもう「どの model が一番賢いか」だけでなく、「どの interaction style が毎日の開発フローに最も効率よく収まるか」まで含めて最適化し始めている。
Related Articles
Hacker Newsで拡散したAlex Kimの分析は、Claude Codeの流出source mapからfake tools、frustration regex、undercover modeといった内部設計を可視化した。論点は単なる流出ではなく、developer toolに埋め込まれたanti-distillationとtelemetryの境界にある。
Hacker NewsでAhmed Nagdyの対話型Claude Code学習サイトが話題になった。slash commands、CLAUDE.md、hooks、skills、MCP、pluginsをブラウザ上の演習にまとめた構成が特徴だ。
OpenAIDevsは2026年4月4日、開発者がCodex app内でVercel pluginを使い、project setupからdeploymentまで進められると紹介した。今回の投稿は、OpenAIのCodex plugin文書とVercelのOpenAI Codex・Codex CLI対応の流れに沿って、release作業をagent workflowの中へ取り込む方向を示している。
Comments (0)
No comments yet. Be the first to comment!