Dentro de las negociaciones existenciales de Anthropic con el Pentágono

The Verge
Anthropic está en tensas negociaciones con el Pentágono sobre su política de uso aceptable, especialmente en lo referente a armas autónomas letales y vigilancia masiva.

Resumen

Anthropic está inmerso en un conflicto de alto riesgo con el Departamento de Defensa (DoD) con respecto a su política de uso aceptable, que prohíbe las operaciones cinéticas autónomas y la vigilancia doméstica masiva. Se informa que el Pentágono, liderado por el Director de Tecnología Emil Michael, amenaza con designar a Anthropic como un "riesgo de la cadena de suministro" si no acepta nuevos términos, incluido el "cualquier uso lícito", lo que otorgaría a los militares carta blanca sobre su IA, Claude. Esta amenaza es públicamente sin precedentes y podría afectar gravemente el negocio de Anthropic, ya que los principales contratistas de defensa dependen de Claude, el único modelo de vanguardia autorizado para las redes clasificadas del Pentágono. El choque surge del compromiso de Anthropic con los principios de IA responsable, que se alinean con las directivas existentes del DoD contra armas totalmente autónomas y vigilancia doméstica, principios que el memorando reciente del Subsecretario Hegseth, que prioriza la velocidad sobre la seguridad, parece contradecir. Aunque OpenAI y xAI supuestamente han aceptado los nuevos términos, la acreditación de seguridad única de Anthropic le da influencia, aunque no puede coordinarse formalmente con otros laboratorios.

(Fuente:The Verge)