“太危险而不能发布”正成为人工智能的新常态

TIME
领先的AI公司因担心生物恐怖主义和网络攻击等双重用途风险,正日益限制对其最强大模型的访问权限。

内容摘要

OpenAI 和 Anthropic 等大型人工智能公司正在对其最先进的模型(如 GPT-Rosalind 和 Claude Mythos)采取限制发布策略。这些在生物学和网络安全等高风险领域表现出色的模型,目前仅限于“受信任的合作伙伴”使用,以降低被滥用的风险。专家和政策制定者正在争论这些准入标准应由私营企业还是联邦政府决定,尤其是在人工智能的双重用途性质使得平衡安全与科学进步变得困难的情况下。此外,开源人工智能最终可能复制这些能力的潜力,正威胁着绕过当前的企业安全控制,凸显了政府正式监管的必要性。

(来源:TIME)