Prohibición Gubernamental de Anthropic: Lo que Significa Renunciar a $200 Millones para tu IA
Resumen
Anthropic rechazó un contrato de $200 millones con el Pentágono porque el Departamento de Defensa exigió la eliminación de dos restricciones clave: no al uso para vigilancia masiva de ciudadanos estadounidenses y no al uso en sistemas de armas totalmente autónomas. El CEO, Dario Amodei, afirmó que los sistemas de IA de frontera no son lo suficientemente fiables para armas autónomas y que la vigilancia doméstica masiva es incompatible con los valores democráticos. Tras la negativa, el Presidente ordenó a todas las agencias federales cesar el uso de productos Anthropic, y la compañía fue designada como un "riesgo de cadena de suministro". Inmediatamente después de la prohibición, OpenAI aseguró un acuerdo de reemplazo con el Pentágono para desplegar ChatGPT en redes clasificadas. En respuesta, el público apoyó firmemente la postura de Anthropic; Claude se disparó al número uno en descargas de la App Store de Apple, demostrando que los usuarios valoran los principios éticos de las empresas de IA, incluso cuando estos conllevan la pérdida de grandes contratos gubernamentales.
(Fuente:Everyday AI)