AnthropicがDeepSeek・Moonshot AI・MiniMaxによる産業規模のモデル蒸留攻撃を特定

Original: Anthropic: "We've identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax." View original →

Read in other languages: 한국어English
LLM Feb 24, 2026 By Insights AI (Reddit) 1 min read 1 views Source

Anthropicの告発

AnthropicはDeepSeek、Moonshot AI(Kimi)、MiniMaxという中国のAI企業3社がClaudeモデルに対して産業規模の蒸留(distillation)攻撃を行ったと公式に告発しました。Wall Street Journalの報道によると、これらの企業は24,000以上の不正アカウントを組織的に作成し、1,600万件の会話から訓練データを大規模に抽出したとされています。

モデル蒸留とは何か

モデル蒸留はAI研究における合法的な手法で、大型の「教師」モデルの出力を使って小型の「生徒」モデルを訓練するものです。しかし、利用規約に違反して大量の不正アカウントで組織的にデータを収集する行為は、倫理的・法的問題を引き起こします。

Anthropicはこれを単なる利用規約違反ではなく知的財産権の侵害と見なしており、入手したデータが競合AIモデルの性能向上に直接活用されたと疑っています。

業界への影響

今回の件はDeepSeekなど中国AI企業が短期間で急成長できた背景に関する議論を再燃させました。Anthropicは法的措置を検討中であり、AI業界全体でモデル保護機構の強化に向けた議論が促進されることが予想されます。

Share:

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.