OpenAI dice que los navegadores de IA siempre podrían ser vulnerables a ataques de inyección de indicaciones (prompt injection)

TechCrunch
OpenAI admite que los ataques de inyección de indicaciones contra navegadores de IA como Atlas son un desafío de seguridad a largo plazo que podría no resolverse nunca.

Resumen

OpenAI reconoce que los ataques de inyección de indicaciones, que manipulan agentes de IA mediante instrucciones maliciosas ocultas en páginas web, son un riesgo de seguridad persistente para los navegadores de IA, incluido su ChatGPT Atlas. La compañía considera esto un desafío a largo plazo y se centra en fortalecer continuamente las defensas en lugar de buscar una solución definitiva. Para combatir esto, OpenAI está utilizando un atacante automatizado basado en LLM, entrenado mediante aprendizaje por refuerzo, para descubrir proactivamente estrategias de ataque novedosas en simulación antes de que sean explotadas. Expertos en seguridad señalan que los navegadores agenticos conllevan un alto riesgo inherente debido a su autonomía moderada y alto acceso a datos sensibles, y sugieren que los usuarios limiten el acceso y requieran confirmación para mitigar la amenaza persistente.

(Fuente:TechCrunch)