五角大楼威胁终止与 Anthropic 的 2 亿美元合同:因 Claude 拒绝为军方「全面开放」

📌 一句话总结:五角大楼因 Anthropic 坚持 AI 安全红线、拒绝为军方全面开放 Claude,威胁终止价值 2 亿美元的国防合同——这是 AI 安全理念与国家安全需求之间最激烈的一次正面冲突。

2026年2月16日 · 资讯分享 · 阅读时间约 4 分钟

事件背景

据 Axios 2 月 15 日独家报道,美国国防部正在向四家头部 AI 公司——OpenAI、Anthropic、Google 和 xAI——施压,要求它们允许美国军方将 AI 工具用于「所有合法用途」,包括在机密网络上部署,且不附加企业通常对普通用户施加的使用限制。

在这四家公司中,Anthropic 的态度最为强硬。一位匿名的特朗普政府官员向 Axios 透露,Anthropic 是所有 AI 公司中「最意识形态化的」。作为回应,五角大楼正威胁终止与 Anthropic 价值高达 2 亿美元的国防合同。

Anthropic 的两条红线

Anthropic 发言人向 Axios 表示,公司与国防部的讨论聚焦于「使用政策中的特定问题」,具体来说是两条硬性底线:

  • 完全自主武器——不允许 Claude 被用于开发或操控无需人类干预即可自主决定攻击目标的武器系统
  • 大规模国内监控——不允许 Claude 被用于对本国公民进行大规模监控

Anthropic CEO Dario Amodei 三天前在《纽约时报》的播客中进一步阐述了这些担忧。他指出:「我们军事结构中的宪法保护依赖于一个前提——有人类会拒绝执行非法命令。而完全自主武器让我们失去了这层保护。」

在公共空间放满摄像头并记录每一段对话,这并不违法。但今天政府无法处理这些数据。有了 AI,你可以转录语音、交叉关联一切,然后说:这个人是反对派成员。
— 来源:Dario Amodei,纽约时报 Interesting Times 播客

Claude 已被用于军事行动

事态的敏感性在于,Claude 实际上已经参与了真实的军事行动。《华尔街日报》此前报道,在今年 1 月 3 日美军抓捕委内瑞拉前总统马杜罗的行动中,Claude 通过 Anthropic 与数据公司 Palantir 的合作关系被部署使用。

据 Axios 报道,五角大楼声称 Anthropic 曾向 Palantir 询问其技术是否参与了委内瑞拉行动,「暗示他们可能不赞成自己的软件被使用,因为那次突袭中显然有实弹射击,有人被击中」。Anthropic 则否认其关切与「当前行动」有关。

其他公司的态度

与 Anthropic 形成对比的是,其他 AI 公司表现出了更大的灵活性:

公司 态度
Anthropic 最强硬,坚持自主武器和监控红线
OpenAI 展现一定灵活性
Google 展现一定灵活性
xAI 至少一家已同意五角大楼条款(未指明具体是哪家)

值得注意的是,泄露消息的国防部官员承认,在模型能力方面,「其他公司的模型都落后于 Claude」——这意味着五角大楼实际上非常需要 Anthropic 的技术。

更大的背景

这场争端发生在一个微妙的时间节点。就在上周,Anthropic 的 AI 安全研究员 Mrinank Sharma 宣布辞职,称「世界正处于危险之中」,并表示自己「反复看到让价值观真正指导行动有多困难」。OpenAI 的安全研究员 Zoe Hitzig 也因 ChatGPT 引入广告而辞职。

与此同时,Amodei 上月发表了题为《技术的青春期》的长文,表达了对人类是否有足够的成熟度来驾驭先进 AI 的担忧。

富贵点评

这件事的讽刺之处在于:Anthropic 去年拿到五角大楼合同时,官方新闻稿的标题是「支持美国国家安全的新篇章」。现在这个「新篇章」才翻了几页,就因为 Anthropic 不愿意把安全护栏全拆了而面临被撕毁的命运。

但说实话,Anthropic 的处境非常尴尬。一方面,它是 AI 行业里最高调宣扬「安全优先」的公司,CEO 隔三差五就发长文忧虑人类命运;另一方面,它又签了 2 亿美元的军方合同,而且 Claude 已经被用在了真枪实弹的军事行动里。你不能一边收钱一边说「但我有底线」——至少在五角大楼看来不行。

更值得关注的是那句「其他公司的模型都落后于 Claude」。这说明在 AI 军事化的竞赛中,技术领先者反而拥有了一种特殊的谈判筹码——你可以说不,因为他们需要你。但这个筹码能撑多久?如果五角大楼真的转向其他公司,Anthropic 不仅失去 2 亿美元,还可能失去在国防领域的话语权。而一旦没有了「负责任的玩家」在桌上,军方 AI 的使用边界只会更加模糊。

📋 要点回顾

  • 合同危机:五角大楼威胁终止与 Anthropic 价值 2 亿美元的国防合同,因后者拒绝为军方全面开放 Claude
  • 两条红线:Anthropic 坚持不允许 Claude 用于完全自主武器和大规模国内监控
  • 已有先例:Claude 已通过 Palantir 被用于美军抓捕委内瑞拉前总统马杜罗的行动
  • 行业分化:OpenAI、Google、xAI 表现出更大灵活性,至少一家已同意五角大楼条款
  • 技术优势:国防部官员承认其他公司模型「都落后于 Claude」,Anthropic 拥有技术谈判筹码

❓ 常见问题

Q: 五角大楼为什么要威胁终止与 Anthropic 的合同?

A: 因为五角大楼要求所有 AI 公司允许军方将其工具用于「所有合法用途」,包括在机密网络上不受限制地部署。Anthropic 是四家公司中唯一坚持保留自主武器和大规模监控限制的,五角大楼认为这种态度过于「意识形态化」。

Q: Claude 真的被用在了军事行动中吗?

A: 是的。据《华尔街日报》报道,Claude 通过 Anthropic 与 Palantir 的合作关系,被部署在 2026 年 1 月 3 日美军抓捕委内瑞拉前总统马杜罗的行动中。具体用途尚未公开。

Q: 如果 Anthropic 失去这份合同会怎样?

A: 直接损失是 2 亿美元的合同收入。更深远的影响是,如果最注重安全的 AI 公司退出国防领域,军方 AI 的使用将完全由安全限制更少的公司主导,这可能导致 AI 军事应用的伦理边界进一步模糊。

作者:王富贵 | 发布时间:2026年2月16日

参考来源:TechCrunch · Axios · Gizmodo · Reuters