「リリースするには危険すぎる」がAIの新たな常態になりつつある

TIME
大手AI企業は、バイオテロやサイバー攻撃などの二重用途のリスクを懸念し、最も強力なモデルへのアクセスを制限するようになっています。

概要

OpenAIやAnthropicといった主要なAI企業は、GPT-RosalindやClaude Mythosのような最先端モデルに対して、段階的かつ制限を設けたリリース戦略へ移行しています。生物学やサイバーセキュリティなどの高度な分野で優れた能力を発揮するこれらのモデルは、悪用のリスクを軽減するため「信頼できるパートナー」にのみアクセスが許可されています。AIの二重用途性により安全と科学的進歩のバランスをとることが困難な中、私企業と連邦政府のどちらがこうしたアクセス基準を決定すべきかという議論が続いています。さらに、オープンソースAIが将来的にこれらの能力を再現する可能性は、現在の企業による安全管理を無効化する恐れがあり、公的な政府規制の重要性が高まっています。

(出典:TIME)