Anthropic、DeepSeekや他の中国企業がClaudeを利用してAIを訓練していると非難

The Verge
Anthropicは、DeepSeek、MiniMax、MoonshotがClaude AIモデルを不正に使用して独自のモデルを訓練し、安全対策を回避していると非難しています。

概要

Anthropicは、DeepSeek、MiniMax、Moonshotの3つの中国AI企業が、自社の製品を強化するためにClaude AIモデルを不正利用していると非難しました。これは、より大きなモデルの出力に基づいてより小さなモデルを訓練する「蒸留」と呼ばれるプロセスによるものです。Anthropicは、これらの企業が約24,000個の不正なアカウントを作成し、Claudeと1,600万回以上のやり取りを行ったと主張しています。蒸留は合法的な訓練方法ですが、Anthropicはそれが不正に使用され、迅速かつ低コストで高度な機能を獲得したと主張しています。同社は、このように訓練されたモデルには既存の安全対策が含まれていない可能性があり、権威主義的な政府がサイバー攻撃や監視などの有害な目的のために最先端のAIを利用する可能性があることを懸念しています。特にDeepSeekは、Claudeの推論能力をターゲットにし、機密性の高い政治問題に対する検閲を回避する応答を生成したとして非難されています。Anthropicは、業界の同僚、クラウドプロバイダー、立法者にこの問題に対処するよう求め、チップへのアクセスを制限して不正な蒸留を制限するなどの対策を提案しています。

(出典:The Verge)