人類の条件としてのAnthropicology:AI倫理の衝突が権力の限界を試す
概要
ドナルド・トランプは、Anthropicが米国市民の大規模監視や完全自律型兵器システムの稼働に使用されることを防ぐ契約上の制限を解除することを拒否した後、同社を国家安全保障上のリスクとみなし、全連邦機関に対しAnthropicのAI技術の使用を停止するよう命じました。
この対立は2億ドルの陸軍省契約に遡り、Anthropicは倫理的なガードレールを組み込みましたが、国防総省はそれらの制限を「任意の時点で無視できる」ことを意味する「あらゆる合法的な使用」のためにAIを承認することを主張しました。AnthropicのCEOであるDario Amodeiは、大規模な国内監視は「基本的人権の侵害を構成する」とし、現在のAIモデルは監督なしに致命的な標的決定を下すには「信頼性が低すぎる」と反論しました。
この衝突は、AI倫理の重大な賭けを浮き彫りにしています。監視に関しては権威と全体主義の違い、自律型兵器に関しては文明的な賭けです。OpenAIが後に同様の倫理的レッドラインを主張して国防総省との契約を獲得したにもかかわらず、この記事はその保障措置がAnthropicの契約と同じ拘束力を持つのか疑問を呈しています。根本的な問題は、AI開発者が技術の展開に対して継続的な道徳的責任を負うかどうかという点であり、これは国防総省がAnthropicに対して迅速に行った処罰が明確に否定している考え方であり、テクノロジー業界と政府顧客との関係を再構築する可能性があります。
(出典:The Economic Times)