Show HN: Rudel은 Claude Code 세션 분석으로 초기 실패 패턴을 드러낸다
Original: Show HN: Rudel – Claude Code Session Analytics View original →
Show HN에 소개된 Rudel은 Claude Code를 “결과만 보는 도구”가 아니라 측정 가능한 workflow로 다루려는 시도다. 작성자는 자신들의 Claude Code 사용을 분석할 수단이 거의 없었다고 말한다. 그래서 세션 transcript를 수집해 대시보드로 보는 analytics layer를 만들었고, 그 과정에서 1,573개의 실제 세션, 15M+ token, 270K+ interaction 데이터를 얻었다고 설명했다.
HN 본문이 특히 강조한 것은 초기 패턴이다. skills는 전체 세션의 4%에서만 쓰였고, 세션의 26%는 시작 60초 안에 abandon됐으며, documentation 작업은 성공률이 높고 refactoring은 낮게 나왔다고 한다. 또 첫 2분 안에 나타나는 error cascade가 abandonment를 어느 정도 예측한다고 주장했다. 즉 coding agent의 성능은 단순한 model benchmark보다 실제 세션 흐름에서 더 잘 드러난다는 문제의식이다.
README를 보면 구조도 분명하다. 사용자는 rudel enable로 Claude Code hook을 등록하고, 세션 종료 시 transcript가 업로드된다. 저장 데이터에는 session ID, timestamp, project path, git context, full prompt/response transcript, sub-agent usage까지 포함된다. Rudel은 이를 ClickHouse에 저장하고 analytics로 가공한다고 밝힌다. 생산성 도구라기보다 observability 계층에 가깝다.
댓글 반응은 양면적이었다. “Codex도 지원하느냐”는 질문이 바로 나왔고, 로컬 대안이 필요하다는 반응도 있었다. 일부는 예시 run이 더 있어야 설치할 이유가 생긴다고 했고, 다른 일부는 transcript 업로드 자체에 거부감을 보였다. 결국 Rudel의 가치는 agent workflow를 계측 가능하게 만드는 데 있지만, 그 전제는 privacy boundary와 데이터 신뢰성을 설득력 있게 설명하는 것이다. 원문: GitHub · rudel.ai. 커뮤니티 반응: Hacker News.
Related Articles
Hacker News는 Bassim Eledath의 8단계 프레임을 끌어올리며, 코딩 agent 활용 격차를 benchmark가 아니라 워크플로 성숙도로 설명하는 글에 반응했다.
Anthropic는 Claude Code Security를 Enterprise·Team 고객 대상 limited research preview로 공개했다. 이 도구는 코드베이스 전반을 추론해 취약점을 찾고, severity·confidence를 붙여 human review용 patch를 제안한다.
r/artificial에서 주목받은 글은 Spotify가 Claude Code와 내부 시스템 Honk를 활용해 개발·배포 속도를 크게 높였다는 TechCrunch 보도를 공유했다.
Comments (0)
No comments yet. Be the first to comment!