Anthropic:Claudeが「産業規模」のAIモデル蒸留攻撃に遭遇
AnthropicがAIモデルClaudeに対する大規模な蒸留攻撃を公表。海外の研究機関が2万4千の偽アカウントを使い1600万回以上の対話を通じてClaudeの中核能力を抽出しようとした事件で、AI業界のセキュリティと知的財産保護に新たな
AnthropicがAIモデルClaudeに対する大規模な蒸留攻撃を公表。海外の研究機関が2万4千の偽アカウントを使い1600万回以上の対話を通じてClaudeの中核能力を抽出しようとした事件で、AI業界のセキュリティと知的財産保護に新たな
AnthropicがDeepSeek等の中国AI研究所によるClaudeモデルの「工業レベルの蒸留攻撃」を告発したが、コミュニティから「自らも大規模にネット上のコンテンツを無断使用している」と激しい反発を受けた。
OpenAIが米国議会に備忘録を提出し、中国AI企業DeepSeekが「モデル蒸留」技術を通じて不正にOpenAIのモデル出力データを取得・利用していると公式に告発。この動きは米中AI競争の激化を示す最新のシグナルとして、知的財産権、ダブル
DeepSeek事件を契機に、AIモデルの知識を盗む「モデル蒸留攻撃」が深刻な脅威となっており、API層からモデル内核まで多層的な防御体系の構築が急務となっている。
Googleは攻撃者がGeminiモデルに10万回以上のプロンプトを送信し、知識蒸留技術を使って低コストでモデルの中核能力をクローンしようとしたことを公開しました。