📌 一句话总结:热门 AI 聊天应用「Chat & Ask AI」因 Firebase 配置错误,3 亿条用户私密对话在公网裸奔,2500 万用户隐私门户大开,泄露内容包含大量极度敏感信息。
2026年2月11日 · 资讯分享 · 阅读时间约 4 分钟
不是黑客攻击,是「门没锁」
一位化名 Harry 的独立安全研究员近日向科技媒体 404 Media 披露了一个令人震惊的发现:在 Google Play 和 Apple App Store 上广受欢迎的 AI 聊天应用「Chat & Ask AI」,将约 3 亿条用户私密对话完全暴露在公网上,影响超过 2500 万用户。
这款应用号称拥有 5000 万用户,提供与 ChatGPT、Claude、Gemini 等主流 AI 模型的聊天功能。但讽刺的是,造成这起大规模数据泄露的原因并非什么高超的黑客技术,而是一个最基础的配置错误。
该应用使用 Google Firebase 作为后端数据库。Firebase 默认是安全的,但开发者需要手动设置访问规则来控制谁能读取数据。而「Chat & Ask AI」的开发者将规则设置为:
allow read: if true;—— 任何人都可以读取全部数据。这相当于把家门钥匙插在锁上,然后在门口贴了张纸条写着「欢迎光临」。
— 来源:CyberPress
任何拥有基本 Firebase 知识的人,只需一个简单的 curl 命令或 Firebase SDK,就能以「已认证用户」的身份访问整个后端数据库,下载所有用户的聊天记录。
泄露内容触目惊心
Harry 在抽样分析了 6 万名用户和 100 万条消息后确认,至少一半的应用用户(约 2500 万人)受到影响。泄露的数据包括:
| 泄露类型 | 具体内容 |
|---|---|
| 完整聊天记录 | 用户与 AI 模型的所有对话历史 |
| 时间戳 | 每条消息的精确发送时间 |
| 用户配置 | 选择的 AI 模型、自定义聊天机器人名称 |
| 敏感查询 | 自杀求助、自残方法、违禁品制作、黑客技术等 |
虽然此次泄露不涉及密码或财务信息,但聊天内容的敏感程度远超传统数据泄露。用户往往将 AI 聊天机器人当作「最信任的朋友」,毫无保留地倾诉最私密的想法——而这些内容现在全部暴露在了公网上。
「套壳应用」的安全黑洞
「Chat & Ask AI」是典型的 AI「套壳应用」(wrapper app)——它本身不开发 AI 模型,而是通过 API 调用 OpenAI、Google、Anthropic 等公司的模型,提供一个简化的用户界面。这类应用在各大应用商店数以千计,下载量动辄数百万。
问题在于:这些应用转售了大厂 AI 模型的能力,却远远没有匹配大厂的安全标准。Firebase 配置错误并非个案——此前 Fortnite 数据追踪器等多款应用也曾因同样的问题泄露用户数据。
在 AI 应用爆发式增长的当下,大量开发者急于抢占市场,跳过了安全审计这一关键步骤。当你在一个不知名的 AI 应用里输入你的心事时,你的数据可能正在以 allow read: if true 的方式向全世界敞开。
富贵点评
这起事件最让人后背发凉的不是技术层面——Firebase 配置错误是初级开发者都不该犯的错。真正可怕的是它揭示的一个行业现实:我们正在把最私密的想法交给一群连数据库权限都配不好的开发者。
想想看,用户在这些 AI 应用里聊的内容,比他们在任何社交媒体上发布的都要私密得多。你不会在朋友圈发「如何写遗书」,但你可能会问 AI。当这些对话被泄露,造成的伤害远不止「隐私侵犯」四个字能概括的。
给普通用户一个实用建议:如果你要和 AI 聊敏感话题,请直接使用 OpenAI、Google、Anthropic 等大厂的官方应用或网页版。那些应用商店里花花绿绿的「AI 助手」「AI 聊天」应用,很多就是套了个壳,安全水平参差不齐。你的秘密,值得更好的保护。
📋 要点回顾
- 泄露规模:约 3 亿条私密对话暴露,影响 2500 万用户,涉及 ChatGPT、Claude、Gemini 等模型的聊天记录
- 泄露原因:Google Firebase 数据库访问规则被设为完全公开(allow read: if true),属于基础配置错误而非黑客攻击
- 敏感内容:泄露的聊天记录包含自杀求助、自残方法、违禁品制作等极度敏感信息
- 行业警示:AI「套壳应用」转售大厂模型能力却缺乏匹配的安全标准,用户应优先使用官方应用
❓ 常见问题
Q: 我用过「Chat & Ask AI」,我的数据安全吗?
A: 如果你曾使用该应用,你的聊天记录很可能已被暴露。虽然不涉及密码和财务信息,但所有对话内容(包括时间戳和使用的 AI 模型)都可能被第三方访问。建议立即停止使用该应用,并转向 OpenAI、Google 等官方平台。
Q: 什么是 AI「套壳应用」?为什么它们不安全?
A: AI 套壳应用是指本身不开发 AI 模型,而是通过 API 调用 OpenAI、Google 等公司模型的第三方应用。它们提供简化的界面,但往往缺乏大厂级别的安全基础设施和审计流程,数据保护水平参差不齐。
Q: 如何保护自己在 AI 应用中的隐私?
A: 优先使用 OpenAI、Google、Anthropic 等大厂的官方应用或网页版;避免在第三方 AI 应用中分享敏感个人信息;使用前查看应用的隐私政策和用户评价;对于特别敏感的话题,考虑使用支持本地运行的开源模型。
作者:王富贵 | 发布时间:2026年2月11日
参考来源:CyberPress · GBHackers · Digital Watch Observatory