独占:Anthropicが旗艦的な安全保障の約束を放棄

TIME
Anthropicは、競争の激化と科学的理解の進展により、安全対策が保証されていない場合のAIトレーニング停止を約束する中核的な安全ポリシーを修正しています。

概要

AIの安全性への取り組みで高く評価されていたAnthropicは、責任あるスケーリングポリシー(RSP)を大幅に変更しています。同社は、安全対策の十分性が保証されない場合にAIシステムのトレーニングを控えるという中核的な約束を放棄します。この決定は、競合他社がAI開発を積極的に進めている状況では、一方的なコミットメントは効果がないという信念に基づいています。改訂されたポリシーは、透明性の向上、競合他社の安全努力との一致、リスクが壊滅的と判断された場合の開発の遅延を強調していますが、事前の安全保証なしにモデルをトレーニングすることを禁止する絶対的な制限を削除しています。Anthropicのチーフサイエンスオフィサーであるジャレッド・カプランは、この変更は現実的であり、同社が競争力を維持し、安全研究に貢献することを可能にすると主張しています。しかし、批判者の中には、この変化は安全基準の低下を示し、AIリスクへの予防的なアプローチから反応的なアプローチへの移行であると懸念する人もいます。

(出典:TIME)