No tenemos que tener robots asesinos no supervisados

The Verge
Los trabajadores tecnológicos están preocupados mientras empresas como Anthropic enfrentan presiones del Pentágono para permitir el uso sin control de IA para armas letales autónomas y vigilancia.

Resumen

Anthropic se enfrenta a un ultimátum inminente del Pentágono: permitir al ejército estadounidense el acceso sin restricciones a su tecnología de IA, incluido el uso para vigilancia masiva y armas letales totalmente autónomas, o arriesgarse a ser designada como un riesgo de la cadena de suministro, lo que podría costarle miles de millones en contratos. Esta situación ha causado angustia entre los trabajadores tecnológicos de grandes empresas como OpenAI, xAI, Amazon, Microsoft y Google, muchos de los cuales se sienten traicionados por la creciente cooperación de sus empleadores con contratos de defensa. Aunque el CEO de Anthropic, Dario Amodei, ha rechazado públicamente la solicitud inmediata, citando la falta de fiabilidad tecnológica actual, sigue abierto a la colaboración futura en I+D para armas letales autónomas. Las principales empresas tecnológicas han relajado recientemente sus directrices éticas para asegurar lucrativos contratos militares, ejemplificado por OpenAI que eliminó la prohibición de casos de uso bélico y Anthropic que modificó su política de escalado responsable. A pesar de éxitos pasados en la resistencia liderada por trabajadores, como el fin del "Proyecto Maven" de Google, el sentimiento actual sugiere una cultura de miedo y silencio, aunque la postura actual de Anthropic ofrece un rayo de esperanza para quienes abogan por límites éticos, exigiendo específicamente un humano en el bucle para decisiones letales.

(Fuente:The Verge)