Anthropic が自ら仕掛けた罠

TechCrunch
Anthropic は軍事契約を拒否したことで危機に瀕しており、業界が拘束力のある規制を拒否したために自ら招いた窮状が浮き彫りになりました。

概要

Anthropic は、CEO が同社の AI を大規模な国内監視や自律型致死兵器に使用することを拒否した後、トランプ政権によって連邦契約からブラックリストに載せられ、最大 2 億ドルの契約を失うことになりました。Future of Life Institute の Max Tegmark 氏は、この危機は同社が、OpenAI や Google DeepMind のような競合他社と共に、拘束力のある安全規制に反対し、代わりに自己統治を約束したために自ら招いた窮状だと主張しています。

Tegmark 氏は、Anthropic が強力なシステムを安全だと確信できるまでリリースしないという約束を破棄したように、主要な AI ラボがすべて最近、重要な安全へのコミットメントを放棄したと指摘しています。これは、サンドイッチよりも AI に対する監視が少ないという規制の空白を生み出したためです。この外部ルールの欠如は、国防総省の事例のように、政府が危険な使用を要求できることを意味します。

彼は「中国との競争」という議論を一蹴し、中国が国内の安定上の懸念から特定の AI アプリケーションを禁止していると述べています。Tegmark 氏は、制御不能な超知能は核軍拡競争と同様に国家安全保障上の脅威であると結論付けており、誰も勝者にはなりません。彼は、この出来事が業界に外部規制を受け入れさせ、強力な製品をリリースする前に安全性の実証を要求する他の企業と同じように AI 企業を扱うようになるかもしれないと、ある種の楽観視をしています。

(出典:TechCrunch)