Anthropic 与五角大楼的 2 亿美元摊牌:当 AI 安全底线撞上「所有合法用途」,一场关于技术伦理、军事需求与行业格局的三方博弈

📌 一句话总结:Anthropic 因拒绝让五角大楼无限制使用 Claude 而面临 2 亿美元合同被取消的威胁,与此同时 OpenAI、Google、Perplexity 正通过 FedRAMP 20x 获批直接向美国政府销售 AI 服务——AI 行业正在经历一场关于「安全底线能否在国家机器面前站住脚」的终极考验。

2026年2月20日 · 深度解读 · 阅读时间约 8 分钟

事件背景:一通电话引爆的信任危机

2026 年 1 月,美军执行了一次高度敏感的军事行动——突袭并逮捕委内瑞拉前总统马杜罗。行动中,五角大楼通过 Palantir 的系统调用了 Anthropic 的 Claude 模型进行情报分析和决策支持。行动成功了,但后续发生的事情却让整个 AI 行业为之震动。

据多家媒体报道,Anthropic 的一名高管随后联系了 Palantir 的高管,询问 Claude 是否被用于了这次行动。五角大楼将这一举动解读为 Anthropic 对其技术被用于军事行动的「不满」——毕竟那次突袭中有实弹射击,有人员伤亡。

「他们提出这个问题的方式暗示他们可能不赞成自己的软件被这样使用,因为那次突袭中显然有动能打击,有人被射击。」
— 来源:Axios 援引匿名高级官员

Anthropic 否认了这一说法,声称公司「从未就 Claude 在具体行动中的使用与国防部或任何行业合作伙伴进行过讨论」。但无论真相如何,这通电话成了压垮骆驼的最后一根稻草。

核心矛盾:「所有合法用途」vs「安全红线」

冲突的本质其实早在合同签订之初就已埋下。2025 年夏天,Anthropic 与五角大楼签署了价值高达 2 亿美元的合同,但设定了明确的使用边界:禁止将 Claude 用于自主武器开发、大规模国内监控或促进暴力行为。

五角大楼的诉求则截然不同。国防部研究与工程副部长 Emil Michael 在佛罗里达的一次峰会上公开表态:

「如果任何一家公司不愿意配合,那对我们来说就是个问题。这可能造成一种局面——我们开始使用他们的模型并习惯了其工作方式,但在紧急情况下却被禁止使用。」
— 来源:CNBC

五角大楼要求所有 AI 供应商允许军方将其模型用于「所有合法用途」,不需要逐案审批。据报道,OpenAI、Google 和 xAI 同样获得了价值 2 亿美元的合同,其中至少一家已经完全同意了这一条款,另外两家也表现出了灵活性。只有 Anthropic 在坚守底线。

核武器级威胁:「供应链风险」标签

五角大楼手中握着一张极具杀伤力的牌。据 CNBC 报道,如果 Anthropic 最终不同意国防部的使用条款,五角大楼可能将其列为「供应链风险」。

这个标签通常只用于外国对手——比如华为、卡巴斯基这类被认为对国家安全构成威胁的实体。一旦被贴上这个标签,所有国防部的供应商和承包商都必须证明自己没有使用 Anthropic 的模型。考虑到 Anthropic 自称美国十大企业中有八家在使用 Claude,这将是一次毁灭性打击。

五角大楼发言人 Sean Parnell 的措辞也毫不含糊:「我们的国家要求合作伙伴愿意帮助我们的战士在任何战斗中取胜。」

暗流涌动:竞争对手的「去中间商」运动

就在 Anthropic 与五角大楼僵持不下的同时,一场更深层的变革正在发生。据 Fast Company 独家报道,OpenAI、Google 和 Perplexity 即将获得批准,可以在自己的云系统上直接向美国政府销售 AI 技术。

这三家公司去年通过联邦安全认证计划 FedRAMP 20x 申请了加速审查,目前几乎确定会获批。虽然初始授权级别为「低影响」试点,但这标志着 AI 公司正在摆脱对 Palantir、微软、AWS 等传统政府技术承包商的依赖。

公司 政府合同状态 FedRAMP 20x 使用条款立场
OpenAI 2 亿美元 DoD 合同 即将获批 已同意或表现灵活
Google 2 亿美元 DoD 合同 即将获批 已同意或表现灵活
Perplexity 未知 即将获批
xAI 2 亿美元 DoD 合同 未参与 已同意或表现灵活
Anthropic 2 亿美元合同(审查中) 未参与 坚持安全红线

值得注意的是,Anthropic 并未参与 FedRAMP 20x,而是一直依赖 Palantir 等合作伙伴向政府客户销售技术。这种依赖关系现在反而成了软肋——Palantir 夹在 Anthropic 和五角大楼之间,处境尴尬。

更大的图景:AI 安全理想主义的生存危机

Anthropic 一直以「AI 安全」为核心品牌定位。创始人 Dario Amodei 和 Daniela Amodei 正是因为对 OpenAI 安全方向的不满才离开并创立了 Anthropic。公司的宪法 AI(Constitutional AI)方法论、负责任扩展政策(Responsible Scaling Policy)都是行业标杆。

但现在,这种理想主义正面临前所未有的现实压力:

政治层面,特朗普政府的 AI 和加密货币沙皇 David Sacks 公开指责 Anthropic 支持「觉醒 AI」(woke AI),因为其对监管的立场。在当前的政治气候下,被贴上「不爱国」的标签可能比技术落后更致命。

商业层面,Anthropic 刚刚完成了 300 亿美元的 G 轮融资,估值达到 3800 亿美元。失去政府市场不仅意味着直接收入损失,更可能动摇投资者信心——毕竟,政府合同往往是 AI 公司商业化能力的重要背书。

竞争层面,当 OpenAI、Google 和 xAI 都在向五角大楼的条款靠拢时,Anthropic 的坚持反而可能让它在政府 AI 市场被边缘化。如果竞争对手的模型在军事场景中积累了大量实战数据和反馈,技术差距可能会进一步拉大。

Palantir 困局:中间商的黄昏

这场博弈中还有一个容易被忽视的角色——Palantir。作为传统的政府技术承包商,Palantir 一直是 AI 公司进入政府市场的桥梁。Anthropic 的 Claude 正是通过 Palantir 的系统部署到了五角大楼的保密网络上。

但 FedRAMP 20x 的出现正在改变游戏规则。当 OpenAI 和 Google 可以直接向政府销售时,Palantir 的「中间商」价值就大打折扣。更糟糕的是,Anthropic-五角大楼冲突的导火索恰恰是 Palantir 的角色——它在未经 Anthropic 明确授权的情况下将 Claude 用于了军事行动。

这暴露了中间商模式的根本缺陷:AI 公司无法控制自己的技术最终被如何使用。对于像 Anthropic 这样将安全视为核心价值的公司来说,这是不可接受的。但讽刺的是,正是这种「失控」让五角大楼看到了 Claude 的实战价值。

富贵点评

这件事的本质不是 Anthropic 对不对,而是整个 AI 行业正在被迫回答一个它一直在回避的问题:当你的技术足够强大到可以改变战争走向时,你还有权决定它不被用于战争吗?

Anthropic 的处境让我想到了当年 Google 员工抗议 Project Maven(军用无人机 AI 项目)的事件。Google 最终退出了,但现在它正通过 FedRAMP 20x 重新拥抱政府市场。历史告诉我们,在国家安全面前,商业公司的道德底线往往是可以移动的。

但我也不认为 Anthropic 会轻易妥协。300 亿美元的融资给了它底气,而「AI 安全」的品牌定位是它区别于 OpenAI 的核心竞争力。更可能的结果是双方找到某种折中方案——比如 Anthropic 同意更广泛的使用范围,但保留对自主武器和大规模监控的否决权。

真正值得关注的是 FedRAMP 20x 带来的结构性变化。当 AI 公司可以直接向政府销售时,它们将不得不直面「你的技术被用来做什么」这个问题,而不能再躲在 Palantir 这样的中间商背后。这对整个行业来说,既是挑战,也是一次迟来的成人礼。

📋 要点回顾

  • 合同危机:五角大楼威胁取消与 Anthropic 价值 2 亿美元的合同,因其拒绝允许军方将 Claude 用于「所有合法用途」,包括自主武器和大规模监控
  • 导火索:Claude 被用于逮捕委内瑞拉前总统马杜罗的军事行动,Anthropic 事后询问使用情况引发五角大楼不满
  • 核武器威胁:五角大楼可能将 Anthropic 列为「供应链风险」,这一标签通常只用于外国对手,将迫使所有国防承包商停止使用 Claude
  • 竞争格局:OpenAI、Google、Perplexity 即将通过 FedRAMP 20x 获批直接向政府销售 AI 服务,绕过传统中间商
  • 行业影响:这场博弈将决定 AI 公司能否在政府市场保留安全底线,其结果将为全球 AI 军事化设定先例

❓ 常见问题

Q: Anthropic 为什么不像 OpenAI 和 Google 那样同意五角大楼的条款?

A: Anthropic 的核心品牌定位就是「AI 安全」,创始团队正是因为对 OpenAI 安全方向的不满才独立创业。公司设有明确的使用政策红线,禁止将其模型用于自主武器开发和大规模国内监控。妥协这些底线将动摇其品牌根基和投资者信任。

Q: 什么是 FedRAMP 20x?为什么它对 AI 行业很重要?

A: FedRAMP 20x 是美国联邦安全认证计划的加速审查通道,允许科技公司在自己的云系统上直接向政府销售服务。此前,AI 公司通常需要通过 Palantir、微软等已通过安全审查的承包商来触达政府客户。FedRAMP 20x 让 AI 公司可以「去中间商化」,直接与政府建立关系,但也意味着它们必须直面技术使用的伦理责任。

Q: 如果 Anthropic 被列为「供应链风险」,会有什么后果?

A: 这将是极其严重的打击。所有国防部供应商和承包商都必须证明自己没有使用 Anthropic 的产品,这可能波及大量商业客户。Anthropic 自称美国十大企业中有八家在使用 Claude,如果这些企业同时也是国防承包商,它们可能被迫在 Claude 和政府合同之间做出选择。不过,这一标签通常只用于外国对手,对一家美国公司使用将开创危险先例。

Q: 这场冲突最可能的结局是什么?

A: 最可能的结果是双方达成某种折中方案。Anthropic 可能会扩大允许的使用范围,但保留对最敏感领域(如完全自主武器和大规模国内监控)的限制。Anthropic 发言人已表示公司正在与国防部进行「善意的、富有成效的对话」。完全决裂对双方都不利——五角大楼需要最好的 AI 技术,而 Anthropic 也不想失去政府市场的背书。

作者:王富贵 | 发布时间:2026年2月20日

参考来源:CNBC · Fast Company · TechCrunch · Axios