Anthropic 为自己设下的陷阱
内容摘要
Anthropic 在其首席执行官拒绝允许该公司的人工智能被用于大规模国内监视或自主致命武器后,被特朗普政府列入黑名单,并被禁止与五角大楼签订合同,包括一项价值高达 2 亿美元的潜在交易。未来生命研究所的 Max Tegmark 认为,这场危机是该公司及其竞争对手(如 OpenAI 和 Google DeepMind)自己造成的困境,因为它们一直游说反对具有约束力的安全法规,转而承诺自我管理。
Tegmark 指出,所有主要的 AI 实验室最近都放弃了关键的安全承诺——例如 Anthropic 放弃了在不确定不会造成伤害的情况下不发布强大系统的承诺——因为它们成功地游说形成了监管真空,导致对人工智能的监管少于对三明治的监管。这种缺乏外部规则意味着政府可以要求危险的使用,正如五角大楼所做的那样。
他驳斥了“与中国的竞争”论点,指出中国正因内部稳定问题而禁止某些人工智能应用。Tegmark 总结说,不可控的超级智能是一种国家安全威胁,类似于核军备竞赛,在这种竞赛中没有人会赢。他对这种情况持谨慎乐观态度,认为这可能会迫使行业接受外部监管,像对待其他行业一样对待人工智能公司,要求它们在发布强大产品前进行安全演示。
(来源:TechCrunch)