2025年1月以来所有AI应用的20起数据泄露事件:根源原因相同
内容摘要
在2025年1月至2026年2月期间,AI驱动的应用中发生了至少20起安全事件,泄露了数千万用户的个人数据,这暴露了AI应用生态系统中存在系统性的安全危机。独立研究(如CovertLabs对iOS应用、Cybernews对Android应用的审计)一致表明,这些泄露事件的根源是相同的、本可避免的错误:配置错误的Firebase数据库、缺失的Supabase行级安全(RLS)、硬编码的API密钥以及暴露的云后端。文章列举了包括Chat & Ask AI泄露3亿多条聊天记录、麦当劳McHire泄露6400万求职者数据,以及Bondu AI玩具泄露儿童对话记录等具体案例。这些漏洞通常是极其容易利用的配置错误,并在负责任披露后数小时到数天内得到修复。文章总结道,解决这一危机的根本方法是用户在自己控制的基础设施上运行开源模型,从而避免将数据置于易受攻击的第三方后端环境中。
(来源:Blog Barrack Ai)