Todas las Filtraciones de Datos de Aplicaciones de IA desde Enero de 2025: 20 Incidentes, Mismas Causas Raíz

Blog Barrack Ai
Veinte filtraciones de datos de aplicaciones de IA entre enero de 2025 y febrero de 2026 se debieron consistentemente a configuraciones erróneas de Firebase/Supabase, claves codificadas y backends expuestos.

Resumen

Entre enero de 2025 y febrero de 2026, al menos 20 incidentes de seguridad expusieron datos de decenas de millones de usuarios en aplicaciones impulsadas por IA, revelando una crisis de seguridad sistémica. Investigaciones independientes, como las de CovertLabs y Cybernews, convergieron en que estas brechas compartían las mismas causas raíz prevenibles: bases de datos Firebase mal configuradas, falta de seguridad a nivel de fila (RLS) en Supabase, claves API codificadas y backends en la nube expuestos. Los incidentes detallados incluyen la exposición de más de 300 millones de mensajes de chat de Chat & Ask AI debido a reglas Firebase permisivas, la filtración de 64 millones de registros de solicitantes de empleo de McHire de McDonald's por credenciales predeterminadas, y la exposición de conversaciones de niños a través del juguete Bondu AI. El artículo subraya que estos son errores de configuración trivialmente explotables. La solución arquitectónica propuesta para eliminar esta clase de vulnerabilidades es el autoalojamiento de modelos de código abierto en infraestructura controlada por el usuario, asegurando que los datos sensibles nunca salgan del entorno aislado.

(Fuente:Blog Barrack Ai)