アンソロピック、ディープシーク等による大規模AIモデル蒸留攻撃を公表

Original: Anthropic Exposes Industrial-Scale AI Model Distillation Attacks by DeepSeek, Moonshot AI, and MiniMax View original →

Read in other languages: 한국어English
AI Feb 24, 2026 By Insights AI (Twitter) 1 min read Source

産業規模のAIモデル蒸留攻撃を発見

2026年2月24日、アンソロピックは中国の主要AI企業がClaudeモデルに対して大規模な蒸留攻撃を行っていたことを公表しました。DeepSeek、Moonshot AI、MiniMaxが今回の攻撃主体として特定されました。

攻撃の規模と手法

この攻撃は以下の手段で実行されました:

  • 2万4千件以上の不正アカウントの作成
  • Claudeとの1,600万件以上の会話生成
  • 取得したデータを自社モデルの訓練・改善に活用

不正な蒸留の危険性

アンソロピックは正当な蒸留と不正な蒸留を区別しています。AIラボが顧客向けに小型・低コストモデルを作るための蒸留は正当です。しかし海外企業が米国モデルを不正に蒸留した場合、安全機構を取り除き、抽出した能力を軍事・情報収集・監視システムに転用するリスクがあります。

業界横断的な対応を要請

アンソロピックはこれらの攻撃が激しさと巧妙さを増していると警告し、業界・政策立案者・AIコミュニティ全体による迅速で協調した対応を求めました。

詳細はアンソロピックの公式報告書(Detecting and Preventing Distillation Attacks)をご覧ください。

Share:

Related Articles

Comments (0)

No comments yet. Be the first to comment!

Leave a Comment

© 2026 Insights. All rights reserved.