Antropología, una condición humana: El choque de la ética de la IA pone a prueba los límites del poder

The Economic Times
Anthropic fue designada un riesgo de seguridad nacional por Trump tras negarse a eliminar restricciones éticas en su contrato con el Pentágono.

Resumen

Donald Trump ordenó a todas las agencias federales dejar de usar la tecnología de IA de Anthropic, designando a la empresa de San Francisco como un "riesgo para la cadena de suministro de la seguridad nacional". Esto ocurrió después de que Anthropic se negara a eliminar dos restricciones de su contrato con el Pentágono: que sus modelos Claude no pudieran usarse para la vigilancia masiva de ciudadanos estadounidenses ni para impulsar armas totalmente autónomas.

La disputa se remonta a un contrato de 200 millones de dólares con el Departamento de Guerra, donde Anthropic integró salvaguardas éticas que el Pentágono consideró inaceptables, insistiendo en que necesitaban IA autorizada para "cualquier uso legal", es decir, la capacidad de ignorar esas restricciones a voluntad. El CEO de Anthropic, Dario Amodei, argumentó que la vigilancia masiva doméstica "constituye una violación de los derechos fundamentales" y que los modelos actuales no son lo suficientemente fiables para tomar decisiones letales sin supervisión.

La confrontación subraya las cuestiones más importantes de la era de la IA: la diferencia entre autoridad y totalitarismo en la vigilancia, y una apuesta civilizatoria con las armas autónomas. Aunque OpenAI anunció posteriormente un acuerdo con el Pentágono afirmando tener las mismas líneas rojas, el artículo cuestiona si sus salvaguardas tienen el mismo peso contractual vinculante que las de Anthropic. El núcleo de la batalla es si los desarrolladores de IA tienen alguna responsabilidad moral duradera sobre cómo se despliega su tecnología, una idea que el castigo del Pentágono a Anthropic rechaza firmemente, lo que podría remodelar la relación de la industria con los clientes gubernamentales.

(Fuente:The Economic Times)