アンソロピック、ディープシーク等による大規模AIモデル蒸留攻撃を公表
Original: Anthropic Exposes Industrial-Scale AI Model Distillation Attacks by DeepSeek, Moonshot AI, and MiniMax View original →
産業規模のAIモデル蒸留攻撃を発見
2026年2月24日、アンソロピックは中国の主要AI企業がClaudeモデルに対して大規模な蒸留攻撃を行っていたことを公表しました。DeepSeek、Moonshot AI、MiniMaxが今回の攻撃主体として特定されました。
攻撃の規模と手法
この攻撃は以下の手段で実行されました:
- 2万4千件以上の不正アカウントの作成
- Claudeとの1,600万件以上の会話生成
- 取得したデータを自社モデルの訓練・改善に活用
不正な蒸留の危険性
アンソロピックは正当な蒸留と不正な蒸留を区別しています。AIラボが顧客向けに小型・低コストモデルを作るための蒸留は正当です。しかし海外企業が米国モデルを不正に蒸留した場合、安全機構を取り除き、抽出した能力を軍事・情報収集・監視システムに転用するリスクがあります。
業界横断的な対応を要請
アンソロピックはこれらの攻撃が激しさと巧妙さを増していると警告し、業界・政策立案者・AIコミュニティ全体による迅速で協調した対応を求めました。
詳細はアンソロピックの公式報告書(Detecting and Preventing Distillation Attacks)をご覧ください。
Related Articles
アンソロピックが、DeepSeek・Moonshot AI・MiniMaxが2万4千以上の不正アカウントを作成し、Claudeと1,600万件超の会話を生成してモデル能力を抽出していたと公表。前例のない規模の攻撃です。
アンソロピックが、DeepSeek・Moonshot AI・MiniMaxが2万4千以上の不正アカウントを作成し、Claudeと1,600万件超の会話を生成してモデル能力を抽出していたと公表。前例のない規模の攻撃です。
Anthropicは2026年3月6日、Claude Opus 4.6がFirefox脆弱性CVE-2026-2796のテスト用exploitを作成した過程を公開した。Anthropicはこれを実運用の攻撃自動化ではなく、frontier modelのcyber capabilityがどこまで近づいているかを示す早期警告として位置づけている。
Comments (0)
No comments yet. Be the first to comment!