OpenAI comparte más detalles sobre su acuerdo con el Pentágono
Resumen
Tras las críticas y el colapso del acuerdo de Anthropic con el Pentágono, OpenAI anunció su propio acuerdo para desplegar modelos en entornos clasificados. El CEO Sam Altman admitió que el acuerdo fue "apresurado". OpenAI publicó una entrada de blog que describe tres áreas donde sus modelos no pueden ser utilizados: vigilancia masiva doméstica, sistemas de armas autónomas y decisiones automatizadas de alto riesgo. La compañía afirma que sus salvaguardias son de múltiples capas, incluyendo retener la discreción total sobre su pila de seguridad, el despliegue a través de la nube, personal autorizado de OpenAI involucrado y sólidas protecciones contractuales, a diferencia de otras empresas que dependen principalmente de las políticas de uso. Sin embargo, los críticos argumentan que el acuerdo aún permite la vigilancia doméstica basándose en el cumplimiento de la Orden Ejecutiva 12333. La jefa de asociaciones de seguridad nacional de OpenAI, Katrina Mulligan, respondió que la arquitectura de implementación, como limitar la integración directa a través de la API en la nube, es más importante que el lenguaje contractual para prevenir el uso en sistemas de armas.
(Fuente:TechCrunch)