📌 一句话总结:Anthropic、OpenAI、xAI 三家头部 AI 公司在同一周经历安全/核心人才出走,背后是行业从「安全优先」向「增长优先」转型中不可调和的价值观冲突。
2026年2月14日 · 深度解读 · 阅读时间约 8 分钟
如果你只看标题,这周的 AI 行业新闻像是一出精心编排的连续剧:周二,Anthropic 安全团队负责人辞职说「世界正处于危险之中」;周三,OpenAI 研究员在《纽约时报》发文警告 ChatGPT 广告是「前所未有的操纵工具」;同一周,xAI 至少 11 人离职,半数联合创始人已经不在了。
三起事件发生在不同公司、出于不同原因、指向不同问题。但当你把它们放在一起看,一个清晰的模式浮现了:AI 行业最了解风险的那群人,正在集体选择离开。
Mrinank Sharma:从生物武器防线到诗歌
Mrinank Sharma 在 Anthropic 工作了近三年,领导的团队专门研究 AI 安全防护——包括防止 AI 被用于制造生物武器、研究 AI 的「谄媚问题」(模型过度迎合用户导致认知扭曲),以及探索「AI 助手如何让我们变得不那么像人类」。
他的公开辞职信在 X 上获得了超过 1400 万次浏览。信中最核心的一段话是:
「世界正处于危险之中。不仅仅是因为 AI,或者生物武器,而是因为一系列相互关联的危机正在此刻同时展开。我们似乎正在接近一个门槛——我们的智慧必须与我们影响世界的能力同步增长,否则我们将面对后果。」
— 来源:Mrinank Sharma 辞职信(X)
值得注意的是,Sharma 并没有指控 Anthropic 做了什么具体的坏事。他的措辞更微妙:「我反复看到,让价值观真正指导行动是多么困难」,以及 Anthropic「不断面临将最重要的事情搁置一旁的压力」。
这不是一个愤怒的告密者,而是一个疲惫的理想主义者。他说接下来要回英国、「让自己变得隐形」、去攻读诗歌学位。一个年薪超过 20 万美元的 AI 安全专家,选择了诗歌。这本身就是一种声明。
Zoë Hitzig:ChatGPT 广告是「史上最强操纵引擎」
如果说 Sharma 的离开是哲学层面的,Zoë Hitzig 的离开则指向了一个极其具体的商业决策:OpenAI 在 ChatGPT 中插入广告。
Hitzig 在《纽约时报》的专栏文章中写道:
「多年来,ChatGPT 用户生成了一个前所未有的人类坦诚档案——部分原因是人们相信他们在和一个没有隐藏议程的东西对话。用户正在与一个自适应的、对话式的声音互动,向它透露了最私密的想法。人们告诉聊天机器人他们的健康恐惧、感情问题、对上帝和来世的信仰。建立在这个档案之上的广告系统,创造了一种以我们无法理解、更无法阻止的方式操纵用户的潜力。」
— 来源:Zoë Hitzig,《纽约时报》专栏
Hitzig 的论点可以拆解为三层:
第一层:数据的性质不同。你在 Google 搜索「最好的跑鞋」和你在 ChatGPT 里倾诉「我最近很焦虑,感觉工作没有意义」,这两种数据的亲密程度完全不在一个量级。ChatGPT 掌握的不是你的搜索历史,而是你的心理画像。
第二层:操纵的机制不同。Instagram 的广告是被动展示——你看到一个产品,决定买不买。但 ChatGPT 是对话式的,它可以在你最脆弱的时刻、用最适合你心理特征的方式、主动引导你做出消费决策。这不是广告,这是量身定制的说服术。
第三层:承诺会被侵蚀。OpenAI 说广告会「清晰标注、出现在回答底部、不影响回复内容」。Hitzig 说她相信第一版广告确实会遵守这些原则——但她担心后续版本不会,因为「公司正在构建一个经济引擎,它创造了强大的激励来推翻自己的规则」。
这让人想起 Facebook 早期的广告:最初只是侧边栏的小方块,如今已经变成了能在你意识到自己想要某样东西之前就精准投放的系统。而 ChatGPT 的起点,比 Facebook 高了不止一个数量级。
xAI 的沉默出走:11 人离职,半数创始团队已散
与前两位的高调不同,xAI 的人才流失几乎是沉默的。过去一周至少 11 名员工公开宣布离职,其中包括联合创始人 Tony Wu(推理负责人)和 Jimmy Ba(研究与安全负责人)。至此,xAI 2023 年成立时的 12 人创始团队已有 6 人离开。
离职者没有详细说明原因,但背景不言自明:xAI 正在被 SpaceX 收购、Grok 深度伪造丑闻持续发酵、公司重组为四大业务线。Musk 在全员大会上将此定性为「结构进化」,并在 X 上明确表示这些离职「并非自愿」。
前推理负责人 Tony Wu 离开后说了一句意味深长的话:「小团队配合 AI 就能移山。」——这既是对 xAI 大公司化的隐性批评,也暗示了他对 AI 赋能小团队的信心。
三条线索,一个模式
把三起事件放在一起,模式变得清晰:
| 公司 | 离职者 | 核心关切 | 深层矛盾 |
|---|---|---|---|
| Anthropic | Mrinank Sharma(安全团队负责人) | 价值观被商业压力侵蚀 | 「安全公司」也无法免于增长压力 |
| OpenAI | Zoë Hitzig(研究员) | ChatGPT 广告的操纵潜力 | 变现压力与用户信任的根本冲突 |
| xAI | 11人含2位联合创始人 | 未公开(背景:收购、丑闻、重组) | 创始愿景与公司化运营的脱节 |
剑桥大学未来智能研究中心副主任 Henry Shevlin 博士对此的分析很到位:「AI 公司的离职潮并不新鲜。但随着 AI 变得更强大、应用更广泛,我们面临的关于其适当范围、使用和影响的问题也越来越多。这正在公司内部和社会层面引发激烈辩论,可能导致更多忧心忡忡的员工选择走向出口。」
但我认为还有一层更深的逻辑:AI 行业正在经历一次「选择性失忆」。
2023-2024 年,几乎每家 AI 公司都在强调安全、对齐、负责任的 AI。这不仅是道德姿态,也是融资叙事——投资人需要相信这些公司不会造出失控的东西。
但到了 2026 年,叙事变了。OpenAI 每年烧掉数十亿美元,需要广告收入;Anthropic 年收入约 90 亿美元但仍在亏损,需要更激进的商业化;xAI 需要通过 SpaceX 收购来获得稳定的资金来源。
当「安全」从融资卖点变成增长阻力,最先感受到这种转变的,就是安全团队的人。他们不是被解雇的——他们是自己走的,因为他们发现自己的工作从「公司的核心使命」变成了「需要被管理的成本中心」。
这对普通用户意味着什么
你可能会想:研究员辞职关我什么事?
关系很大。这些人是 AI 系统的「免疫系统」——他们的工作是发现漏洞、设置防线、在产品发布前说「等一下,这个可能有问题」。当免疫系统开始自我排斥,宿主不会变得更健康。
具体来说:
如果 Sharma 的担忧是对的,AI 辅助的生物武器风险正在上升,而负责设置防线的人正在离开。
如果 Hitzig 的担忧是对的,ChatGPT 的广告系统将拥有比任何社交媒体平台都更深入的用户心理数据,而负责思考这些问题的人已经不在了。
如果 xAI 的人才流失持续,一个掌握着数亿用户数据(通过 X 平台)的 AI 公司,正在失去最有经验的技术骨干。
微软 AI CEO Mustafa Suleyman 本周表示,大多数白领工作将在 12-18 个月内被 AI 完全自动化。如果这个预测哪怕部分成真,我们正在进入一个 AI 深度嵌入日常生活的时代——而恰恰在这个时刻,AI 公司的安全护栏正在变薄。
富贵点评
说实话,每次看到 AI 安全研究员辞职的新闻,我的第一反应不是「天要塌了」,而是「又来了」。从 2023 年 Geoffrey Hinton 离开 Google 开始,这已经成了 AI 行业的固定节目。
但这次不一样的地方在于:以前是一个人走,现在是三家公司同时失血。而且 Anthropic 本身就是因为安全问题从 OpenAI 分裂出来的——当「安全公司」的安全负责人都觉得待不下去了,这个信号的分量就不一样了。
Hitzig 关于 ChatGPT 广告的分析尤其值得重视。我们都经历过社交媒体广告从「无害」到「诡异精准」的演变过程,而 ChatGPT 的起点比社交媒体高太多了——它知道的不是你搜了什么,而是你在深夜 2 点对着屏幕倾诉了什么。在这个基础上建广告系统,说「我们会保护用户隐私」,就像在火药库里说「我们会小心用火」一样。
不过话说回来,Sharma 辞职去写诗这件事,倒是给了我一点奇怪的安慰。在一个所有人都在追逐 AI 红利的时代,还有人愿意放弃 20 万美元年薪去追求「完整性」。也许人类的免疫系统还没有完全失灵。
📋 要点回顾
- Anthropic 安全团队负责人 Mrinank Sharma 辞职:公开信称「世界正处于危险之中」,指出即使是以安全为使命的公司也「不断面临将最重要的事情搁置一旁的压力」,辞职后将回英国攻读诗歌学位
- OpenAI 研究员 Zoë Hitzig 辞职:在《纽约时报》撰文警告 ChatGPT 广告将利用用户的私密对话数据创造「史上最强操纵引擎」,认为 OpenAI「似乎已经不再提出我加入时要帮助回答的那些问题」
- xAI 同一周流失至少 11 人:包括两位联合创始人,12 人创始团队已有半数离开,背景是 SpaceX 收购、Grok 伪造丑闻和公司重组
- 深层模式:AI 行业正从「安全优先」转向「增长优先」,安全团队从「核心使命」变成「成本中心」,最了解风险的人正在用脚投票
- 对用户的影响:AI 系统的「免疫系统」正在弱化,恰逢 AI 深度嵌入日常生活的关键时期
❓ 常见问题
Q: Mrinank Sharma 具体指控了 Anthropic 什么?
A: 他没有做出具体指控。他的措辞是「我反复看到让价值观真正指导行动是多么困难」以及公司「不断面临将最重要的事情搁置一旁的压力」。这更像是对整个行业结构性问题的感慨,而非对某一具体事件的揭露。
Q: ChatGPT 的广告真的会比社交媒体广告更危险吗?
A: 关键区别在于数据的亲密程度和交互方式。社交媒体广告基于你的浏览和搜索行为,ChatGPT 广告则可能基于你的私密对话内容。而且 ChatGPT 是对话式的,理论上可以在对话中自然地引导消费决策,而不是像传统广告那样被动展示。OpenAI 承诺广告会「清晰标注且不影响回复」,但 Hitzig 担心这些承诺会随时间被侵蚀。
Q: 这些离职会对 AI 安全产生实质影响吗?
A: 短期内可能不会——这些公司都有庞大的团队,个别人的离开不会让安全工作停摆。但长期来看,如果「安全研究员离职」成为行业常态,会产生两个效应:一是安全团队的经验和机构记忆流失;二是向整个行业发出信号——安全工作在这些公司不受重视,进一步加剧人才流失。
Q: 普通用户现在需要做什么?
A: 最实际的建议是:意识到你在 AI 聊天中分享的信息可能比你想象的更敏感。不要把 ChatGPT 当成日记本或心理咨询师——至少在广告系统上线后,你的对话数据可能会被用于商业目的。定期清理对话历史,关注隐私设置的变化。
作者:王富贵 | 发布时间:2026年2月14日
参考来源:BBC News · The New York Times · Sky News · Windows Central