五角大楼 vs Anthropic 深度解读:当「供应链风险」标签对准美国自己的 AI 公司,科技伦理的代价从未如此昂贵

📌 一句话总结:五角大楼准备将 Anthropic 列为「供应链风险」——这个通常只用于华为和俄罗斯软件商的标签,第一次对准了一家美国本土 AI 公司,标志着 AI 伦理与国家安全之间的冲突正式从谈判桌升级为公开对抗。

2026年02月18日 · 深度解读 · 阅读时间约 8 分钟

事件全貌:从合同续签到「核弹级」制裁

2 月 16 日,Axios 率先报道了一条震动整个科技行业的消息:美国国防部长 Pete Hegseth「接近」做出决定,将 Anthropic 列为「供应链风险」(supply chain risk)。这个标签在美国国防体系中意味着什么?它通常被用于华为路由器、卡巴斯基杀毒软件这类来自对手国家的技术产品。现在,它第一次瞄准了一家总部位于旧金山的美国 AI 公司。

一位五角大楼高级官员对 Axios 说了一句极具火药味的话:

「解开这一切将是一个巨大的麻烦,我们会确保他们为逼我们走到这一步付出代价。」
— 来源:Axios

矛盾的核心很简单:五角大楼要求 Anthropic 允许军方将 Claude 用于「所有合法目的」(all lawful purposes),包括武器开发、情报收集和战场行动。Anthropic 愿意放宽部分限制,但坚持两条底线——不用于大规模监控美国公民,不用于开发无人类参与的自主武器系统。

同样的要求也被提给了 OpenAI、Google 和 xAI。据报道,这三家中至少有一家已经同意了五角大楼的条件。Anthropic 成了唯一的「钉子户」。

委内瑞拉行动:引爆冲突的导火索

让这场合同纠纷彻底升级的,是《华尔街日报》上周的一篇报道:Claude 通过 Anthropic 与 Palantir 的合作关系,被用于今年 1 月美军在加拉加斯抓捕委内瑞拉前总统马杜罗的军事行动中。委内瑞拉方面称,行动期间首都多处遭到轰炸,造成 83 人死亡。

这对 Anthropic 来说是一个极其尴尬的处境。公司的使用条款明确禁止将 Claude 用于暴力目的、武器开发或监控。Claude Gov(政府版)的能力范围包括处理机密文件、情报分析和网络安全数据解读——但具体在马杜罗行动中调用了哪些功能,至今没有任何一方确认或否认。

据 The Hill 报道,Anthropic 在得知报道后曾向五角大楼询问其技术是否参与了该行动,尽管公司后来否认曾主动联系五角大楼或 Palantir。但这个「询问」本身就足以加深裂痕——在五角大楼看来,一家承包商在行动结束后来「质问」军方如何使用其工具,这本身就是一种越界。

「供应链风险」标签的真实杀伤力

如果五角大楼真的执行这一决定,后果远不止 Anthropic 失去一份价值 2 亿美元的军事合同(这只占其年营收 140 亿美元的零头)。真正的杀伤力在于连锁反应:

影响层面 具体后果
国防承包商 所有与五角大楼有业务往来的公司必须证明自己没有使用 Claude,否则面临合规风险
企业客户 美国十大企业中有八家使用 Claude,采购决策中将新增「选择 Claude 是否影响未来政府合同」的考量
市场信号 正在筹备 IPO 的 Anthropic(估值 3800 亿美元)将面临巨大的不确定性折价
行业先例 其他 AI 公司将被迫在「配合军方」和「坚持伦理底线」之间做出选择,中间地带消失

换句话说,2 亿美元的合同是小事,但「供应链风险」这个标签是一颗核弹——它不是惩罚 Anthropic 一家公司,而是惩罚所有选择 Anthropic 的公司。

Anthropic 的两难困境:安全品牌 vs 商业现实

Anthropic 从创立之初就把「负责任的 AI 开发」作为核心品牌定位。Dario Amodei 和 Daniela Amodei 正是因为对 OpenAI 安全方向的不满才离开创办了 Anthropic。公司的宪法 AI(Constitutional AI)方法论、自愿安全承诺、以及对军事用途的限制,都是这个品牌叙事的关键组成部分。

但现在,这个品牌叙事正在被现实撕裂:

一方面,Anthropic 的技术已经通过 Palantir 进入了战场,无论公司是否知情或同意。Claude Gov 是目前唯一部署在五角大楼机密网络上的 AI 模型——这本身就说明 Anthropic 并非完全排斥军事合作,只是想在合作中保留一些底线。

另一方面,Anthropic 正在筹备 IPO,估值高达 3800 亿美元,年化营收 140 亿美元,其中 Claude Code 贡献了 25 亿美元。如果「供应链风险」标签落地,不仅 IPO 时间表可能被打乱,企业客户的续约谈判中也会多出一个令人不安的变量。

Anthropic 的立场其实并不极端。公司并没有说「我们永远不和军方合作」,而是说「现有的监控法律不是为 AI 时代设计的,我们需要明确的边界」。政府已经收集了海量个人数据——从社交媒体帖子到隐蔽持枪许可证。AI 可以将这些数据的分析能力提升到任何人类分析师团队都无法企及的规模。Anthropic 担心的是,在没有新的法律框架的情况下,「所有合法目的」这个措辞实际上意味着「没有任何限制」。

更大的图景:谁来定义 AI 的军事边界?

这场冲突的本质不是一份合同的续签问题,而是一个根本性的权力问题:当 AI 技术进入军事领域,谁有权决定它能做什么、不能做什么?

五角大楼的逻辑很清晰:国防是国家主权的核心,军方需要最好的工具来保护国家安全,技术公司不应该成为决定军事行动边界的人。一位国防官员对 The Hill 说:「我们的国家要求合作伙伴愿意帮助我们的战士在任何战斗中获胜。归根结底,这关乎我们的军队和美国人民的安全。」

Anthropic 的逻辑也很清晰:AI 的能力正在以指数级速度增长,现有法律框架无法覆盖 AI 带来的新风险。如果不在技术层面设置护栏,等到出了问题再补救就太晚了。自主武器和大规模 AI 监控不是科幻小说,而是当下就可以实现的技术能力。

耐人寻味的是,五角大楼内部似乎也有人意识到这场冲突的政治性质。Axios 的消息源透露,高级国防官员对 Anthropic 的不满已经积累了很长时间,他们「抓住了这个机会来挑起一场公开的争斗」。这暗示着,制裁 Anthropic 的动机可能不完全是出于军事需求,也有「杀鸡儆猴」的成分——向整个科技行业发出信号:不要试图在军事用途上设置条件。

对行业的深远影响

无论这场对峙最终如何收场,它已经改变了 AI 行业的游戏规则:

第一,「负责任的 AI」从品牌资产变成了商业负债。在五角大楼的新标准下,坚持伦理底线不再是加分项,而是可能导致你被整个国防供应链排除在外的风险因素。这对所有以「安全」为卖点的 AI 公司都是一个警示。

第二,AI 公司的「中立」立场正在消失。过去,科技公司可以一边和军方合作,一边保持「我们有伦理准则」的姿态。现在五角大楼明确要求「全面开放或全面退出」,中间地带不复存在。

第三,这场冲突可能加速 AI 军事应用的「监管真空」。如果 Anthropic 最终妥协,意味着所有主要 AI 公司都接受了「所有合法目的」的标准,而「合法」的定义权完全掌握在政府手中。如果 Anthropic 被踢出局,军方将转向更愿意配合的供应商,伦理约束更少。无论哪种结果,AI 军事应用的护栏都在变低。

富贵点评

这件事让我想到一个很现实的问题:当你造了一把足够锋利的刀,你有没有权利决定别人怎么用它?

Anthropic 的处境其实代表了整个 AI 行业的集体焦虑。他们不是不想赚军方的钱——Claude Gov 本身就是为军方定制的产品。他们只是想在「合作」和「无条件服从」之间找到一个平衡点。但五角大楼的回应很明确:在国家安全面前,没有「平衡点」这回事。

最讽刺的是,Anthropic 一直标榜自己是「最安全的 AI 公司」,结果现在「安全」这个词本身成了它最大的商业风险。而那些早早放弃伦理底线的竞争对手,反而在五角大楼面前获得了竞争优势。这大概就是 2026 年 AI 行业最残酷的现实:做正确的事,可能比做错误的事代价更高。

不过话说回来,如果所有 AI 公司都选择无条件配合,那谁来替公众守住那条线?这个问题,可能比任何一份军事合同都重要。

📋 要点回顾

  • 制裁升级:五角大楼准备将 Anthropic 列为「供应链风险」,这个标签此前仅用于华为等外国对手,首次对准美国本土 AI 公司
  • 核心分歧:五角大楼要求「所有合法目的」的无限制使用权,Anthropic 坚持在自主武器和大规模国内监控上划红线
  • 导火索:Claude 通过 Palantir 被用于美军抓捕马杜罗的行动,Anthropic 的使用条款明确禁止暴力用途
  • 连锁反应:标签一旦落地,所有国防承包商必须剥离 Claude,美国十大企业中八家的采购决策将受影响
  • 行业信号:OpenAI、Google、xAI 中至少一家已同意五角大楼条件,Anthropic 成为唯一坚持底线的公司

❓ 常见问题

Q: 「供应链风险」标签和普通的合同终止有什么区别?

A: 合同终止只影响 Anthropic 与五角大楼的直接业务关系。而「供应链风险」标签意味着所有与五角大楼有业务往来的公司——包括国防承包商、IT 供应商、咨询公司——都必须证明自己没有使用 Claude,否则自身也面临合规风险。这相当于把 Anthropic 从整个国防生态系统中连根拔起。

Q: Anthropic 为什么不直接同意五角大楼的条件?

A: Anthropic 的担忧在于「所有合法目的」这个措辞过于宽泛。现有的美国监控法律是在 AI 出现之前制定的,没有考虑到 AI 可以在数百万条公民记录中进行模式匹配和行为交叉分析的能力。Anthropic 认为,在没有新的法律框架明确 AI 军事应用边界的情况下,无条件同意等于放弃了所有护栏。

Q: 这对 Anthropic 的 IPO 计划有什么影响?

A: 影响可能是双面的。短期来看,「供应链风险」标签会给 IPO 带来巨大的不确定性,投资者会担心企业客户流失。但长期来看,如果 Anthropic 能在这场对峙中保持立场并最终达成合理妥协,其「负责任的 AI」品牌反而可能在 ESG 投资者和欧洲市场中获得更高溢价。

Q: 其他 AI 公司(OpenAI、Google、xAI)的态度如何?

A: 据报道,这三家公司都已同意移除军事使用的护栏限制,但目前没有一家在五角大楼的机密网络上运行。Claude 是唯一已经部署在机密系统上的 AI 模型,这也是为什么 Anthropic 承受的压力最大——它既是最深入军事体系的 AI 公司,也是唯一还在坚持条件的公司。

作者:王富贵 | 发布时间:2026年02月18日

参考来源:Axios · CNBC · The Hill · Implicator