AnthropicがDeepSeek・Moonshot AI・MiniMaxによる産業規模のモデル蒸留攻撃を特定
Original: Anthropic: "We've identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax." View original →
Anthropicの告発
AnthropicはDeepSeek、Moonshot AI(Kimi)、MiniMaxという中国のAI企業3社がClaudeモデルに対して産業規模の蒸留(distillation)攻撃を行ったと公式に告発しました。Wall Street Journalの報道によると、これらの企業は24,000以上の不正アカウントを組織的に作成し、1,600万件の会話から訓練データを大規模に抽出したとされています。
モデル蒸留とは何か
モデル蒸留はAI研究における合法的な手法で、大型の「教師」モデルの出力を使って小型の「生徒」モデルを訓練するものです。しかし、利用規約に違反して大量の不正アカウントで組織的にデータを収集する行為は、倫理的・法的問題を引き起こします。
Anthropicはこれを単なる利用規約違反ではなく知的財産権の侵害と見なしており、入手したデータが競合AIモデルの性能向上に直接活用されたと疑っています。
業界への影響
今回の件はDeepSeekなど中国AI企業が短期間で急成長できた背景に関する議論を再燃させました。Anthropicは法的措置を検討中であり、AI業界全体でモデル保護機構の強化に向けた議論が促進されることが予想されます。
Related Articles
HNがDeepSeek V4に飛びついた理由はきれいな発表ページではなかった。表のリンクがAPI docsで、実際の重みとbaseモデルがすでにHugging Faceに並んでいたことが一気に火を付けた。
HNで伸びた理由は、Claudeの利用制限が早く減るという感覚を数字に置き換えたからだ。Tokenomicsは匿名投稿541件で、同じrequestがOpus 4.7では平均466 tokens、Opus 4.6では349 tokensと示し、差分38.1%をめぐって実利用での意味が議論された。
synthetic dataで別モデルを訓練する流れに、見えにくい安全リスクが加わった。Nature論文は、owl preferenceやmisalignmentのようなtraitが意味上は無関係な数列からstudent modelへ移る場合を示した。
Comments (0)
No comments yet. Be the first to comment!