AnthropicがDeepSeek・Moonshot AI・MiniMaxによる産業規模のモデル蒸留攻撃を特定
Original: Anthropic: "We've identified industrial-scale distillation attacks on our models by DeepSeek, Moonshot AI, and MiniMax." View original →
Anthropicの告発
AnthropicはDeepSeek、Moonshot AI(Kimi)、MiniMaxという中国のAI企業3社がClaudeモデルに対して産業規模の蒸留(distillation)攻撃を行ったと公式に告発しました。Wall Street Journalの報道によると、これらの企業は24,000以上の不正アカウントを組織的に作成し、1,600万件の会話から訓練データを大規模に抽出したとされています。
モデル蒸留とは何か
モデル蒸留はAI研究における合法的な手法で、大型の「教師」モデルの出力を使って小型の「生徒」モデルを訓練するものです。しかし、利用規約に違反して大量の不正アカウントで組織的にデータを収集する行為は、倫理的・法的問題を引き起こします。
Anthropicはこれを単なる利用規約違反ではなく知的財産権の侵害と見なしており、入手したデータが競合AIモデルの性能向上に直接活用されたと疑っています。
業界への影響
今回の件はDeepSeekなど中国AI企業が短期間で急成長できた背景に関する議論を再燃させました。Anthropicは法的措置を検討中であり、AI業界全体でモデル保護機構の強化に向けた議論が促進されることが予想されます。
Related Articles
AnthropicはFebruary 17, 2026にClaude Sonnet 4.6を発表し、betaの1M token context windowを追加した。API価格を$3/$15 per million tokensに据え置いたままclaude.aiとClaude Coworkの標準モデルを更新し、より多くの実務ワークロードをSonnet系へ寄せる意図を示した。
Anthropicは2026年3月6日、Mozillaとの協力によりClaude Opus 4.6が2週間でFirefoxの脆弱性22件を発見し、そのうち14件が高深刻度だったと発表した。添付の解説は、フロンティアモデルが実運用ソフトの脆弱性発見でも実用段階に入りつつあることを示している。
Hacker Newsで注目された「Agentic Engineering Patterns」は、コーディングエージェントを実務に組み込むための原則とQA手順を体系化したガイド。単発のプロンプト技ではなく、再現性のある開発プロセスに焦点を当てる。
Comments (0)
No comments yet. Be the first to comment!