Anthropicology,一种人类状况:人工智能伦理冲突考验权力极限

The Economic Times
Anthropic因拒绝移除关于大规模监控和自主武器的合同限制,被特朗普政府指定为国家安全风险。

内容摘要

唐纳德·特朗普下令联邦机构停止使用Anthropic的人工智能技术,并将其指定为国家安全风险,原因是该公司拒绝从五角大楼合同中删除两项限制:其Claude模型不得用于对美国公民进行大规模监控,也不得用于驱动完全自主的武器系统。

这场争端源于一份2亿美元的战争部合同,Anthropic嵌入了五角大楼认为不可接受的道德护栏,而军方坚持要求AI可用于“任何合法用途”,即允许随时“任意忽略”这些限制。Anthropic首席执行官Dario Amodei反驳称,大规模国内监控“构成对基本权利的侵犯”,且当前AI模型“根本不可靠”,无法在没有监督的情况下做出致命瞄准决策。

这次冲突凸显了AI伦理的深远影响:关于监控,这是权威与极权主义的区别;关于自主武器,这是一场文明赌博。尽管OpenAI随后获得了五角大楼的交易,声称拥有相同的道德红线,但文章质疑其保障措施是否具有与Anthropic合同同等的约束力。核心在于,AI开发者是否应对其技术的部署承担持续的道德责任,这是五角大楼对Anthropic的严厉惩罚所否认的理念,并可能重塑科技行业与政府客户的关系。

(来源:The Economic Times)