独家:Anthropic放弃旗舰安全承诺
内容摘要
Anthropic,此前因其对人工智能安全的承诺而备受赞誉,正在对其负责任的规模化政策(RSP)进行重大调整。该公司正在放弃一项核心承诺,即在无法保证其安全措施的充分性时,停止训练人工智能系统。这一决定源于一种信念,即在竞争对手积极推进人工智能开发的情况下,单方面承诺是无效的。虽然修订后的政策强调提高透明度、匹配竞争对手的安全努力,以及如果风险被认为具有灾难性后果则可能推迟开发,但它取消了在没有预先安全保证的情况下训练模型的绝对禁止。Anthropic的首席科学官贾里德·卡普兰认为,这一变化是务实的,允许该公司保持竞争力并为安全研究做出贡献。然而,批评人士担心这种转变表明安全标准正在降低,并且正在转向一种被动而非预防性的应对人工智能风险的方式。
(来源:TIME)