Show HN: RudelはClaude Code session analyticsで早期失敗パターンを可視化する
Original: Show HN: Rudel – Claude Code Session Analytics View original →
Show HNで紹介されたRudelは、Claude Codeを「結果だけを見る道具」ではなく、計測可能なworkflowとして扱おうとする試みだ。開発チームは、自分たちのClaude Code利用にほとんど可視性がなかったため、transcriptを集めてdashboardで分析するanalytics layerを作ったと説明している。その結果、1,573件の実セッション、15M超のtoken、270K超のinteractionを持つdatasetが得られたという。
特に興味深いのは、初期セッション挙動に関する主張だ。投稿によれば、skillsは全セッションの4%でしか使われず、26%のセッションがabandonされ、その大半は最初の60秒以内に発生した。またtask typeごとの成功率差も大きく、documentationは高く、refactoringは低かったという。さらに最初の2分に現れるerror cascadeがabandonmentをある程度予測できるとしており、これはmodel benchmarkでは見えにくい実運用上の信号だ。
READMEから仕組みも分かる。ユーザーはCLIを入れてrudel enableを実行し、Claude Codeのsession終了時にtranscriptをアップロードするhookを登録する。収集対象にはsession ID、timestamp、project path、git context、full prompt/response transcript、sub-agent usageまで含まれ、データはClickHouseで処理される。つまりRudelは単なるhistory viewerではなく、coding agent向けのobservability基盤を目指している。
Hacker Newsでの反応は実務的だった。「Codexでも使えるのか」という質問がすぐに出て、ローカルホスト版を望む声もあった。example runがもっと必要だという意見や、datasetの裏付けを求める声もある。一方で、自動的なtranscript uploadそのものに抵抗を示す人も少なくなかった。結局このカテゴリの勝負は、analyticsの必要性そのものではなく、privacy boundaryとdata handlingをどこまで信頼させられるかにある。原典: GitHub · rudel.ai。コミュニティ反応: Hacker News。
Related Articles
3月29日にHacker Newsで拡散したGitHub issueは、Claude Codeが約600秒ごとに `git fetch origin` と `git reset --hard origin/main` を実行し、tracked変更を消していた可能性を報告している。原因は未確定だが、agentic coding toolのrepo safety設計を改めて問う事例になった。
Hacker Newsで注目されたエッセイが、ChatGPT公開後40カ月を振り返りながら、Claude Codeの実用性、vibe codingの限界、local LLMの台頭をまとめた。
HNのGitHub CLI telemetry議論は、metricsの有用性よりもcommand-line toolでdefault-on collectionが許されるかに集中した。
Comments (0)
No comments yet. Be the first to comment!