El Pentágono etiqueta formalmente a Anthropic como un riesgo para la cadena de suministro

The Verge
El Pentágono designó a Anthropic como riesgo de la cadena de suministro después de que la empresa de IA se negara a permitir su modelo Claude para armas letales autónomas o vigilancia masiva.

Resumen

Tras semanas de negociaciones fallidas y amenazas públicas, el Departamento de Defensa ha etiquetado formalmente a la empresa de IA Anthropic como un "riesgo para la cadena de suministro", una designación típicamente aplicada a entidades extranjeras. Esta decisión prohíbe a los contratistas de defensa trabajar con el gobierno si utilizan Claude, el programa de IA de Anthropic, en sus productos. El conflicto central radica en la negativa de Anthropic a permitir que el Pentágono utilice Claude para dos fines: armas letales autónomas sin supervisión humana y vigilancia masiva. El Pentágono argumentó que las exigencias de control de Anthropic otorgaban demasiado poder a una empresa privada, mientras que Anthropic no estaba segura de que el gobierno respetara sus líneas rojas. Después de que Anthropic se negara a cumplir, el Pentágono ejecutó su amenaza. El Secretario de Defensa, Pete Hegseth, indicó que cualquier empresa que realizara "cualquier actividad comercial" con Anthropic, incluso fuera de su trabajo para el Pentágono, podría ver cancelados sus contratos de defensa, una aplicación amplia que Anthropic calificó de ilegal. La situación se complica por informes que indican que herramientas de inteligencia impulsadas por Claude jugaron un papel importante en una misión militar reciente.

(Fuente:The Verge)