Recompensa por errores de bioseguridad en GPT-5.5
Resumen
OpenAI ha lanzado un programa de recompensas por errores (bug bounty) centrado en la bioseguridad para su modelo GPT-5.5 dentro del entorno Codex Desktop. La iniciativa invita a expertos en seguridad y bioseguridad a identificar un prompt de jailbreak universal que logre saltarse cinco preguntas críticas de seguridad biológica. Se otorgará una recompensa de 25,000 dólares al primer investigador que logre superar los cinco desafíos en un chat sin historial previo, con posibles premios menores por logros parciales. El programa, que requiere una solicitud formal y la firma de un acuerdo de confidencialidad, busca fortalecer la resiliencia de la IA frente a riesgos biológicos hasta julio de 2026.
(Fuente:OpenAI)