Nuestro acuerdo con el Departamento de Guerra
Resumen
OpenAI alcanzó un acuerdo con el Departamento de Guerra (DoW) para desplegar sistemas avanzados de IA en entornos clasificados, solicitando que los mismos términos se pongan a disposición de todas las empresas de IA. Este acuerdo se guía por tres líneas rojas principales: no usar la tecnología de OpenAI para vigilancia masiva doméstica, sistemas de armas autónomas, ni decisiones automatizadas de alto riesgo (como el crédito social). A diferencia de otros laboratorios que dependen principalmente de políticas de uso, el enfoque de OpenAI emplea una defensa de múltiples capas, reteniendo total discreción sobre su pila de seguridad, desplegando a través de la nube, manteniendo personal de OpenAI autorizado involucrado, y asegurando fuertes protecciones contractuales. La arquitectura de despliegue es solo en la nube, lo que impide el uso en dispositivos perimetrales para armas letales autónomas. El contrato prohíbe explícitamente que el sistema de IA dirija independientemente armas autónomas donde la ley requiera control humano, o que asuma otras decisiones de alto riesgo que necesiten aprobación humana. Además, las actividades de inteligencia deben cumplir con leyes existentes como la Cuarta Enmienda, y el sistema no puede usarse para monitoreo sin restricciones de información privada de personas estadounidenses ni para actividades de aplicación de la ley doméstica más allá de los permisos legales. OpenAI cree que esta colaboración es esencial para que el ejército de EE. UU. contrarreste a adversarios que integran IA, garantizando al mismo tiempo un despliegue responsable a través de salvaguardias robustas.
(Fuente:OpenAI)