Se informa que el ejército de EE. UU. usó Claude en ataques a Irán a pesar de la prohibición de Trump
Resumen
Se informa que el ejército de EE. UU. utilizó el modelo de IA Claude de Anthropic para fundamentar su ataque contra Irán, a pesar de que Donald Trump había ordenado horas antes cortar todos los lazos con la compañía y sus herramientas de inteligencia artificial. Según reportes del Wall Street Journal y Axios, el uso de Claude durante el bombardeo conjunto masivo de EE. UU. e Israel contra Irán subraya la complejidad de retirar herramientas de IA potentes de las misiones militares cuando la tecnología ya está intrínsecamente integrada en las operaciones.
El conflicto se desencadenó después de que el ejército estadounidense utilizara Claude en una incursión para capturar al presidente de Venezuela, Nicolás Maduro, en enero, lo cual violó los términos de uso de Anthropic que prohíben su aplicación para fines violentos, desarrollo de armas o vigilancia. Desde entonces, las relaciones entre Trump, el Pentágono y la empresa de IA han empeorado constantemente.
El secretario de Defensa, Pete Hegseth, acusó a Anthropic de "arrogancia y traición", pero también reconoció la dificultad de desvincular rápidamente los sistemas militares de la herramienta de IA, dándoles un período de transición de no más de seis meses. Tras la ruptura con Anthropic, la empresa rival OpenAI ha intervenido; su CEO, Sam Altman, confirmó un acuerdo con el Pentágono para usar sus herramientas, incluido ChatGPT, en la red clasificada militar.
(Fuente:the Guardian)