Anthropicの政府禁止:2億ドルを断念することがあなたのAIにもたらすもの
概要
Anthropicは、国防総省から大規模な米国市民の監視と完全自律型兵器システムに関する2つの使用制限を解除するよう要求されたため、2億ドルの契約を拒否しました。CEOのDario Amodeiは、最先端のAIシステムは自律型兵器を動かすには信頼性が低すぎ、大規模な国内監視は民主的価値観と相容れないと述べました。Anthropicの拒否後、大統領は全連邦機関にClaude製品の使用停止を命じ、同社は「サプライチェーンリスク」と指定されました。Anthropicの禁止からわずか数時間後、OpenAIは機密ネットワーク上でChatGPTを展開するための国防総省との契約を締結しました。この決定に対し、世論はAnthropicの立場を強く支持し、ClaudeはApple App Storeでダウンロード数1位に急上昇しました。この出来事は、AI企業の倫理的原則が、たとえ巨額の契約を失うことになっても、ユーザーの選択に影響を与えることを示しています。
(出典:Everyday AI)