OpenAI disputa la acusación de un organismo de control de haber violado la nueva ley de IA de California con el lanzamiento de GPT-5.3-Codex | Fortune
Resumen
OpenAI está disputando las afirmaciones del organismo de control de IA, Midas Project, de que la compañía violó la nueva ley de IA de California, SB 53, con el lanzamiento de su modelo de codificación GPT-5.3-Codex. SB 53 exige que las principales empresas de IA se adhieran a sus marcos de seguridad publicados, que detallan cómo evitarán riesgos catastróficos. GPT-5.3-Codex fue clasificado internamente como de alto riesgo para la ciberseguridad, lo que, según el marco de OpenAI, debería activar salvaguardas específicas de desalineación para evitar que la IA actúe de manera engañosa u oculte capacidades.
El Midas Project alega que OpenAI implementó el modelo sin estas salvaguardas. OpenAI contrarresta que su marco solo requiere estas salvaguardas adicionales cuando el alto riesgo cibernético ocurre "en conjunción con" la autonomía a largo plazo, una capacidad que, según afirman, GPT-5.3-Codex carece según las evaluaciones proxy. Sin embargo, los críticos argumentan que la interpretación de OpenAI de su propio marco es deshonesta, sugiriendo que el lenguaje no era ambiguo y que la compañía debería haber aclarado las reglas antes del lanzamiento en lugar de después.
Si las acusaciones resultan ser precisas tras una posible investigación por parte de la Oficina del Fiscal General de California, OpenAI podría enfrentar sanciones financieras sustanciales bajo SB 53. El fundador de Midas Project enfatizó que la violación es "especialmente embarazosa dado lo bajo que es el umbral que establece SB 53: básicamente solo adoptar un plan de seguridad voluntario de su elección y comunicarse honestamente al respecto, cambiándolo según sea necesario, pero no violándolo ni mintiendo al respecto".
(Fuente:Fortune)