アンソロピック研究:実際の環境でAIエージェントの自律性が急速に拡大中
Original: Anthropic Research Reveals AI Agents Are Rapidly Gaining Autonomy in Real-World Deployments View original →
実環境におけるAIエージェント自律性の計測
2026年2月19日、アンソロピックはClaude CodeおよびパブリックAPIを通じた数百万件のリアルタイムやり取りを分析し、AIエージェントの自律性の現状を把握する研究を発表しました。
主な調査結果
急速に高まる自律性
2025年10月から2026年1月の間に、99.9パーセンタイルのセッション継続時間が25分未満から45分超へとほぼ倍増しました。研究者は「既存モデルは実際の使用で発揮している以上の自律性能力を持っている」と結論付けています。
経験によって変わる監視スタイル
新規ユーザーは約20%のアクションを自律承認するのに対し、熟練ユーザーは約40%を承認します。熟練ユーザーは個別アクション承認からセッション全体を監視する方式へとシフトしながらも、より頻繁に介入します。
ソフトウェアエンジニアリングが約半数
パブリックAPIにおけるエージェントのツール呼び出しの約50%がソフトウェアエンジニアリング分野であり、医療・金融・カスタマーサービスでの活用も広がっています。
安全性への示唆
アクションの80%には許可要求や人間レビューなどの安全策が設けられており、取り消し不能なアクションは0.8%にとどまります。研究者はエージェントが高リスク領域へ拡大するにつれ、デプロイ後の監視基盤の整備が重要になると勧告しています。
全研究はアンソロピックリサーチページでご覧いただけます。
Related Articles
アンソロピックが数百万件のClaude実運用データを分析し、99.9パーセンタイルのセッション時間が3ヵ月で45分超に倍増するなど、AIエージェントの自律性が実環境で急拡大していることを示しました。
アンソロピックが数百万件のClaude実運用データを分析し、99.9パーセンタイルのセッション時間が3ヵ月で45分超に倍増するなど、AIエージェントの自律性が実環境で急拡大していることを示しました。
AnthropicはMar 6, 2026、Claudeが特定した脆弱性に適用するdisclosure policyを公開した。標準の公開期限は90日で、actively exploited critical bugには7日対応目標とhuman review要件を置く。
Comments (0)
No comments yet. Be the first to comment!