La trampa que Anthropic se construyó a sí misma

TechCrunch
Anthropic enfrenta una crisis tras rechazar contratos militares, lo que subraya la situación que la industria se ha creado al resistirse a una regulación vinculante.

Resumen

Anthropic se enfrenta a una crisis después de que el gobierno de Trump rescindiera sus lazos y la incluyera en una lista negra para contratos federales, incluido un posible acuerdo de 200 millones de dólares, después de que su CEO se negara a permitir que la tecnología de la empresa se utilizara para vigilancia masiva nacional o drones armados autónomos. Max Tegmark del Future of Life Institute argumenta que esta crisis es una trampa que la empresa, junto con rivales como OpenAI y Google DeepMind, se ha labrado al oponerse persistentemente a regulaciones de seguridad vinculantes y prometer en su lugar la autorregulación.

Tegmark señala que todos los principales laboratorios de IA han abandonado recientemente compromisos de seguridad clave, como Anthropic que abandonó su promesa de no lanzar sistemas potentes sin estar seguro de que no causarían daño, porque lograron presionar para obtener un vacío regulatorio, lo que resulta en menos supervisión para la IA que para los sándwiches. Esta falta de reglas externas significa que los gobiernos pueden exigir usos peligrosos, como se vio con el Pentágono.

Descarta el argumento de la "carrera con China", señalando que China está prohibiendo ciertas aplicaciones de IA debido a preocupaciones internas de estabilidad. Tegmark concluye que la superinteligencia incontrolable es una amenaza para la seguridad nacional, análoga a la carrera armamentista nuclear en la que nadie gana. Sigue siendo cautelosamente optimista de que este incidente podría obligar a la industria a aceptar una regulación externa, tratando a las empresas de IA como a cualquier otra que requiera demostraciones de seguridad antes de lanzar productos potentes.

(Fuente:TechCrunch)