Claude 4.7のtokenizer費用、HNはsticker priceの裏側を見た
Original: Measuring Claude 4.7's tokenizer costs View original →
HN threadの中心は、Claude 4.7がどれだけ賢いかではなかった。developer pricingの下にある、もっと地味な会計の話だ。同じworking contextがより多くのtokenになるなら、quota、cache cost、rate limitの体感はどう変わるのか。元記事はCLAUDE.md、prompt、diff、terminal output、stack trace、technical proseなど、Claude Codeに近い素材で4.6と4.7のtoken countを比べた。
方法はinferenceではなく、Anthropicのcount_tokens endpointを使うものだった。つまりmodel qualityではなくtokenizerそのものを見る比較だ。Anthropicのmigration noteは新tokenizerをおおむね1.0-1.35xと説明していたが、記事ではtechnical docsなど一部のsampleでそれを上回る比率が出た。sticker priceが同じでも、実際の消費量が変わるなら運用感は変わる。
コメント欄の読みは割れた。frontier modelはperformance-cost curve上にあり、新しいOpusは単により高いコストの点にいるだけかもしれない、という見方があった。一方でprofessional software workでは、token代よりもAI outputをレビューし、方向修正し、後始末するengineer timeの方が高いという反論もあった。さらに、すべてを最強modelに投げるのではなく、小さなmodelやlocal modelへtaskを振り分けるべきだという声も出た。
HNらしい結論は実務的だ。coding agentの費用はmonthly planやper-token rateだけでは読めない。tokenizer、context compaction、cache hit、model routing、human review timeが全部効いてくる。Claude 4.7が難しいtaskで十分な価値を返すなら追加tokenは払える。ただしcostを見るteamは、model名ではなくper-task token burnを自分たちのworkflowで測る必要がある。
この論点はsubscription buyerにも直結する。plan limitやmodel multiplierはpolicyの表面で、実際のworkflowではrepository context、retained instructions、repeated compaction、cached prefixが積み上がる。だから良い比較はmodel cardだけではない。同じtaskを複数modelで走らせ、token use、latency、修正回数、final diff qualityを一緒に見ることに近い。
Related Articles
Hacker Newsで注目されたGitHub issueが、Claude Codeのprompt cache TTLが1時間から5分へ戻った可能性を指摘し、コストとquota消費の増加を問題視している。
Cursorは4月3日のX投稿で Composer 2 の一時的な利用枠拡大を告知し、新しい Cursor 3 interface への移行を促した。要点は、IDE内の単一 assistant から、local・cloud・remote をまたぐ複数 agent の運用 workspace へ重心を移したことにある。
GitHubはCopilot cloud agent と Copilot CLI を支える agent runtime を SDK として public preview にした。開発者は Node.js、Python、Go、.NET、Java から tool invocation、streaming、file operations、multi-turn session を自身の app に組み込める。
Comments (0)
No comments yet. Be the first to comment!