AnthropicがDeepSeekら中国AI企業によるClaude訓練データ大規模窃取を告発
Original: Anthropic is accusing DeepSeek, Moonshot AI (Kimi) and MiniMax of setting up more than 24,000 fraudulent Claude accounts, and distilling training information from 16 million exchanges. View original →
前例のないAIデータ窃取疑惑
Anthropicが中国のAI企業3社——DeepSeek、Moonshot AI(Kimi)、MiniMax——に対して衝撃的な告発を行いました。Wall Street Journalの報道によれば、これらの企業が24,000件以上の偽Claudeアカウントを組織的に作成し、約1,600万件の会話からトレーニングデータを無断で抽出したとされています。
Distillationとは何か
AIにおけるdistillation(知識蒸留)とは、大規模言語モデル(LLM)の出力を使用して、より小さなモデルや競合モデルを訓練するプロセスです。Anthropicの利用規約では、Claudeの出力を競合AIシステムの訓練に使用することを明示的に禁止しています。無断でこのような大規模な操作を行うことは、利用規約違反であり、知的財産権の侵害にも該当する可能性があります。
告発された行為の規模
このケースを際立たせるのはその規模です。24,000件以上の偽アカウントを作成し、1,600万件の会話を組織的に収集するという行為は、計画的かつ産業規模の作戦を示しています。Anthropicは自社ブログで「産業規模のdistillation攻撃」と表現し、すでに検出・遮断したと述べています。
中国AIの急台頭との関連
DeepSeekは2024年末から2025年初頭にかけて、GPT-4レベルの性能を低コストで実現したと主張し、グローバルなAI業界を驚かせました。今回の告発は、その成果の一部が不正なデータ取得に基づいていた可能性を示唆しています。Moonshot AI(Kimi)とMiniMaxもまた急成長中の中国AIスタートアップです。
AI業界への影響
このケースは、AIモデルの出力の所有権、商業サービスからのdistillationの合法性、そしてグローバルなAI競争における競争慣行に関する重要な先例を設ける可能性があります。Anthropicは攻撃の証拠を公開し、業界全体にモデル出力の保護への注意を呼びかけています。
Related Articles
Anthropicは、powerful AIが社会にもたらす課題を扱う公益組織The Anthropic Instituteを立ち上げた。technical・economic・social scienceの知見を組み合わせ、より広いpublic conversationに資する活動を進めるとしている。
AnthropicはClaude Code SecurityをEnterprise・Team向けのlimited research previewとして公開した。コードベース全体をreasoningし、severityとconfidenceを付けて人間レビュー用のpatchを提案する。
AnthropicはMar 6, 2026、Claudeが特定した脆弱性に適用するdisclosure policyを公開した。標準の公開期限は90日で、actively exploited critical bugには7日対応目標とhuman review要件を置く。
Comments (0)
No comments yet. Be the first to comment!