Show HN: RudelはClaude Code session analyticsで早期失敗パターンを可視化する
Original: Show HN: Rudel – Claude Code Session Analytics View original →
Show HNで紹介されたRudelは、Claude Codeを「結果だけを見る道具」ではなく、計測可能なworkflowとして扱おうとする試みだ。開発チームは、自分たちのClaude Code利用にほとんど可視性がなかったため、transcriptを集めてdashboardで分析するanalytics layerを作ったと説明している。その結果、1,573件の実セッション、15M超のtoken、270K超のinteractionを持つdatasetが得られたという。
特に興味深いのは、初期セッション挙動に関する主張だ。投稿によれば、skillsは全セッションの4%でしか使われず、26%のセッションがabandonされ、その大半は最初の60秒以内に発生した。またtask typeごとの成功率差も大きく、documentationは高く、refactoringは低かったという。さらに最初の2分に現れるerror cascadeがabandonmentをある程度予測できるとしており、これはmodel benchmarkでは見えにくい実運用上の信号だ。
READMEから仕組みも分かる。ユーザーはCLIを入れてrudel enableを実行し、Claude Codeのsession終了時にtranscriptをアップロードするhookを登録する。収集対象にはsession ID、timestamp、project path、git context、full prompt/response transcript、sub-agent usageまで含まれ、データはClickHouseで処理される。つまりRudelは単なるhistory viewerではなく、coding agent向けのobservability基盤を目指している。
Hacker Newsでの反応は実務的だった。「Codexでも使えるのか」という質問がすぐに出て、ローカルホスト版を望む声もあった。example runがもっと必要だという意見や、datasetの裏付けを求める声もある。一方で、自動的なtranscript uploadそのものに抵抗を示す人も少なくなかった。結局このカテゴリの勝負は、analyticsの必要性そのものではなく、privacy boundaryとdata handlingをどこまで信頼させられるかにある。原典: GitHub · rudel.ai。コミュニティ反応: Hacker News。
Related Articles
AnthropicはClaude Code SecurityをEnterprise・Team向けのlimited research previewとして公開した。コードベース全体をreasoningし、severityとconfidenceを付けて人間レビュー用のpatchを提案する。
Hacker NewsはBassim Eledathの8段階フレームを取り上げ、coding agentの差をモデル性能ではなくワークフロー成熟度で説明する記事に反応した。
AnthropicのClaude CodeのCowork(マルチエージェント協調)機能が、ユーザーへの通知なしにApple Virtualization Frameworkを使用してmacOSに約10GBのVMバンドルを作成することが判明した。GitHubのイシューがHacker Newsで200点超を獲得した。
Comments (0)
No comments yet. Be the first to comment!