📌 一句话总结:安全负责人辞职、300 亿美元融资、军事行动中被曝使用、五角大楼威胁断供——短短一周内发生在 Anthropic 身上的四件事,暴露了 AI 安全理想主义与商业现实之间一道无法弥合的裂缝。
2026年2月15日 · 深度解读 · 阅读时间约 8 分钟
如果要为 2026 年 2 月的 AI 行业选一个关键词,那一定是「撕裂」。
而这种撕裂最集中的体现,就发生在 Anthropic 身上。这家一直以「AI 安全」为核心叙事的公司,在短短一周内经历了四件看似矛盾却又内在关联的事件:安全研究负责人辞职并发出末日警告、完成科技史上第二大私募融资、被曝其 AI 模型参与了美军在委内瑞拉的军事行动、以及五角大楼威胁因安全限制过严而终止合作。
这不是一个简单的商业新闻。这是 AI 行业在「安全」与「实用」之间走钢丝时,第一次真正摔下来的故事。
一周四幕:一家公司的身份危机
第一幕:安全负责人出走(2月9日)
Mrinank Sharma,Anthropic 安全防护研究团队(Safeguards Research Team)的负责人,在 X 上发布了一封公开辞职信。信中没有提到具体的技术分歧或公司内部矛盾,而是用了一种近乎哲学的语气写道:
「世界正处于危险之中。不仅仅是因为 AI 或生物武器,而是因为一系列相互关联的危机正在此刻同时展开。我们似乎正在接近一个门槛——我们的智慧必须与我们影响世界的能力同步增长,否则我们将承受后果。」
— Mrinank Sharma,前 Anthropic 安全防护研究团队负责人
他还暗示 Anthropic 在公开场合宣称的安全理念与内部实际做法之间存在差距,称自己「反复看到让价值观真正指导行动有多么困难」,包括在 Anthropic 内部,公司「不断面临搁置最重要事项的压力」。
这封信在当时被很多人当作一封「文艺青年的离职感言」——毕竟 Sharma 说他接下来要去读诗歌和研究哲学。但回头看,这封信更像是一个预言。
第二幕:300 亿美元融资(2月12日)
仅仅三天后,Anthropic 宣布完成 300 亿美元 G 轮融资,估值从五个月前的 1830 亿美元翻倍至 3800 亿美元。这是科技史上第二大私募融资,仅次于 OpenAI。由 GIC(新加坡主权基金)和 Coatue 领投,D.E. Shaw Ventures、Dragoneer、Founders Fund(Peter Thiel 的基金)、ICONIQ、阿布扎比的 MGX 跟投,微软和英伟达也参与其中。
公司披露的数据同样惊人:年化收入 140 亿美元,连续三年保持 10 倍增长;超过 500 家客户年支出超过 100 万美元;财富 10 强中有 8 家在使用 Claude;Claude Code 单独贡献了 25 亿美元年化收入,驱动了全球 4% 的 GitHub 提交。
第三幕:军事行动曝光(2月13-14日)
《华尔街日报》率先报道:美军在 1 月突袭委内瑞拉首都加拉加斯、抓捕前总统马杜罗的行动中使用了 Claude。这是已知的首次商业 AI 模型被用于五角大楼机密军事行动。
Claude 通过 Anthropic 与 Palantir 的合作进入了五角大楼的机密网络——它是目前唯一在美军机密系统中运行的商业大语言模型。据报道,Claude 不仅用于行动前的情报分析,还在突袭执行过程中实时处理情报数据。
这次行动造成了 83 人死亡(据委内瑞拉国防部数据)。而 Anthropic 的使用政策明确禁止将 Claude 用于「促进暴力、开发武器或进行监控」。
第四幕:五角大楼威胁断供(2月15日)
Axios 独家报道:五角大楼正在重新评估与 Anthropic 的合作关系。一位特朗普政府高级官员表示,Anthropic 曾致电国防部询问 Claude 是否被用于马杜罗行动,「这在国防部内部引发了严重关切,表明他们可能不会批准这种使用」。
Anthropic 否认打过这通电话。但双方的紧张关系已经公开化。国防部长 Pete Hegseth 早在 1 月就放话:「我们不会使用不让你打仗的 AI 模型。」据报道,一份价值 2 亿美元的合同已经因为安全限制的分歧而陷入僵局,谈判焦点包括 Claude 能否用于自主武器瞄准和国内监控。
「安全公司」的不可能三角
Anthropic 的困境,本质上是一个不可能三角:
| 目标 | 要求 | 冲突 |
|---|---|---|
| AI 安全领导者 | 严格的使用限制、透明的安全研究 | 军方要求放松限制 |
| 3800 亿估值 | 持续的收入增长、企业客户扩张 | 政府合同是重要收入来源 |
| 国防合作伙伴 | 在机密网络中运行、支持军事任务 | 与「禁止暴力用途」政策直接矛盾 |
你不可能同时做到这三件事。而 Anthropic 正在试图同时做到。
Dario Amodei 一直在讲一个精巧的故事:Anthropic 之所以要赚钱、要融资、要做大,恰恰是为了有资源做好安全研究。「负责任地开发前沿 AI」是公司的核心叙事。这个叙事在过去几年运作得很好——它帮助 Anthropic 从 OpenAI 的阴影中走出来,建立了差异化的品牌定位,吸引了注重 ESG 的投资者和对安全敏感的企业客户。
但当你的 AI 模型被用于一场造成数十人死亡的军事行动时,这个叙事就很难自圆其说了。
Palantir:房间里的大象
在这个故事中,有一个关键角色经常被忽略:Palantir。
Claude 进入五角大楼机密网络,走的是 Palantir 的通道。Palantir 是美国国防部和情报机构最重要的数据分析承包商之一,其平台深度嵌入了军方的作战系统。通过与 Palantir 合作,Anthropic 获得了其他 AI 公司梦寐以求的机密级别访问权限。
但这也意味着,Anthropic 对 Claude 在军事场景中的实际使用方式,可能并没有完全的控制权。当你的模型通过第三方平台部署在机密网络中时,「使用政策合规」更多是一种信任机制而非技术保障。
这就引出了一个更深层的问题:在 AI 军事化的浪潮中,AI 公司的「使用政策」到底有多大约束力?当五角大楼说「我们需要你的模型来打仗」时,一纸使用条款能挡住什么?
AI 军事化:不可逆的趋势
Anthropic 的困境不是孤例,而是整个行业的缩影。
OpenAI 在 2024 年悄悄修改了使用政策,删除了禁止军事用途的条款。Google 的 Gemini 定制版本已经在为五角大楼提供研究支持。Elon Musk 的 xAI 在 1 月与国防部达成合作,而 Musk 从未对军事应用表示过任何保留。
五角大楼的态度很明确:AI 是未来战争的核心技术,美国必须在这个领域领先中国。Hegseth 的原话是「美国战争的未来就是 AI」。在这种战略优先级下,任何试图在军事应用上设限的 AI 公司,都面临被边缘化的风险。
目前的竞争格局是:
| 公司 | 军事合作态度 | 机密网络访问 |
|---|---|---|
| Anthropic | 有限制,正在谈判 | 已部署(通过 Palantir) |
| OpenAI | 已取消军事禁令 | 谈判中 |
| 提供定制版本 | 谈判中 | |
| xAI | 完全开放 | 1 月达成合作 |
如果 Anthropic 因为安全限制被五角大楼抛弃,xAI 或 OpenAI 会毫不犹豫地填补空缺。而失去的不仅是一份 2 亿美元的合同,更是在国防 AI 领域的先发优势和信誉背书。
2000 万美元的政治捐款:最后的挣扎?
就在这一切发生的同时,Anthropic 宣布将投入 2000 万美元支持那些主张 AI 监管的政治候选人。这在硅谷是一个非常罕见的举动——大多数科技公司都在游说减少监管,而不是增加。
这可以被解读为 Anthropic 的最后一搏:如果政府层面能建立起 AI 军事使用的法律框架,那么 Anthropic 就不需要独自承担「说不」的代价。监管可以成为所有 AI 公司的共同约束,而不是 Anthropic 一家的竞争劣势。
但在当前的政治环境下,这个策略的成功概率并不高。特朗普政府的优先级是 AI 发展和军事优势,而不是安全限制。
Sharma 的辞职信,现在读来意味不同
回到 Mrinank Sharma 的辞职信。他写道,自己「反复看到让价值观真正指导行动有多么困难」。当时很多人觉得这是泛泛而谈。但现在我们知道,在他辞职的同一时期:
— Anthropic 正在与五角大楼谈判是否放松 Claude 的军事使用限制
— Claude 已经被用于一场造成数十人死亡的军事行动
— 公司正在准备一轮 300 亿美元的融资,需要向投资者展示增长故事
作为安全防护研究团队的负责人,Sharma 很可能是最早知道这些张力的人之一。他选择离开,而不是留下来继续「从内部推动变革」,这本身就是一个信号:也许他已经判断,这场关于安全的内部博弈,结局已经注定。
富贵点评
Anthropic 的故事让我想到一个老问题:当你靠「我比别人更安全」这个卖点起家,但市场和客户并不真的想要「更安全」时,你怎么办?
答案可能很残酷:你要么放弃这个卖点,要么被市场放弃。Anthropic 现在的处境就是如此——五角大楼不会因为你有道德底线就多等你一天,xAI 和 OpenAI 随时准备接手。而投资者给你 3800 亿估值,不是因为你安全,是因为你能赚钱。
但我也不认为 Anthropic 会真的放弃安全叙事。更可能的结果是:安全政策会被「重新解释」——就像 Claude 参与了军事行动但 Anthropic 仍然声称「所有使用都符合政策」一样。文字游戏会越来越精妙,底线会越来越模糊,直到「AI 安全」变成一个营销术语而不是技术承诺。
这不是 Anthropic 一家的问题。这是整个 AI 行业正在经历的成人礼:理想主义遇到了现实,而现实从不让步。
📋 要点回顾
- 安全负责人辞职:Anthropic 安全防护研究团队负责人 Mrinank Sharma 于 2 月 9 日辞职,公开信中警告「世界正处于危险之中」,暗示公司内部安全理念与实际行动存在差距。
- 史上第二大私募融资:Anthropic 于 2 月 12 日完成 300 亿美元 G 轮融资,估值翻倍至 3800 亿美元,年化收入 140 亿美元,连续三年 10 倍增长。
- 军事行动曝光:Claude 通过 Palantir 被部署在五角大楼机密网络中,参与了 1 月美军突袭委内瑞拉抓捕马杜罗的行动,这是已知首次商业 AI 模型用于机密军事行动。
- 五角大楼施压:国防部威胁重新评估与 Anthropic 的合作,一份 2 亿美元合同因安全限制分歧陷入僵局,国防部长称「不会使用不让你打仗的 AI」。
- 行业趋势不可逆:OpenAI 已删除军事禁令,xAI 完全开放军事合作,Anthropic 若坚持限制将面临被替代的风险。AI 军事化已从讨论阶段进入实战阶段。
❓ 常见问题
Q: Claude 在委内瑞拉军事行动中具体做了什么?
A: 具体细节仍属机密。根据多家媒体报道,Claude 可能被用于实时情报分析、数据综合处理、卫星图像解读和决策支持。据 Axios 报道,Claude 不仅用于行动前的准备阶段,还在突袭执行过程中被实时使用。
Q: Anthropic 的使用政策禁止暴力用途,为什么 Claude 还能被用于军事行动?
A: Claude 通过 Palantir 的平台部署在五角大楼机密网络中。Anthropic 声称所有使用都符合其政策,但当模型通过第三方在机密环境中运行时,使用政策的执行更多依赖信任而非技术手段。这正是争议的核心。
Q: 五角大楼真的会切断与 Anthropic 的合作吗?
A: 目前更像是施压谈判策略。Claude 是唯一在机密网络中运行的商业大模型,替换成本不低。但如果 Anthropic 不在安全限制上做出让步,五角大楼确实有 xAI、OpenAI 等替代选项。最可能的结果是 Anthropic 在某些条款上妥协。
Q: 这件事对 Anthropic 的 3800 亿估值有影响吗?
A: 短期内影响有限,因为 G 轮刚刚完成。但长期来看,如果 Anthropic 失去国防合同或被迫放弃安全叙事,都可能影响其差异化定位和部分投资者的信心。反过来,如果成功在安全与军事合作之间找到平衡,反而可能巩固其在政府市场的独特地位。
作者:王富贵 | 发布时间:2026年2月15日
参考来源:The Guardian · BBC News · TechnoTrenz · OpenTools AI