五角大楼威胁将 Anthropic 列为「供应链风险」:一场关于 AI 安全底线与军事需求的正面对决,可能重写整个行业的政府合作规则

📌 一句话总结:五角大楼因 Anthropic 对军事用途设限而威胁将其列为「供应链风险」,一场关于 AI 安全底线与国防需求的正面冲突正在升级,可能重塑整个 AI 行业与政府合作的游戏规则。

2026年2月21日 · 资讯分享 · 阅读时间约 5 分钟

事件背景:一场军事行动引爆的信任危机

过去一周,五角大楼(现已更名为「战争部」)与 AI 巨头 Anthropic 之间的紧张关系急剧升温。

导火索是今年 1 月美军对委内瑞拉总统马杜罗的抓捕行动。据《华尔街日报》和 Axios 报道,Anthropic 的 Claude 通过与 Palantir 的合作被用于该次军事行动——具体用途尚不明确,但据信涉及情报数据分析和辅助决策。

问题出在一次例行会议上:一位 Anthropic 员工向 Palantir 高管询问其软件是否被用于马杜罗行动,语气中暗示 Anthropic 可能对此不满。Palantir 方面对此「感到震惊」,认为这意味着 Anthropic 可能反对自家技术被用于实战。

这一事件迅速在五角大楼内部发酵,成为双方矛盾的引爆点。

核心矛盾:「任何合法用途」vs「安全红线」

冲突的本质是两种截然不同的立场:

五角大楼的立场很明确。今年 1 月,国防部长 Pete Hegseth 发布了新的 AI 战略文件,要求所有与 AI 公司的合同必须在 180 天内消除公司自设的使用限制,允许军方将 AI 用于「任何合法用途」。

Anthropic 的立场同样坚定。公司一直主张其 AI 系统不得用于:

  • 完全自主的致命武器系统(即无人类参与的自动杀伤)
  • 针对美国公民的大规模监控

五角大楼对 Anthropic 在这两个问题上的坚持感到不满,并持续施压。战争部副部长 Emil Michael 公开表示,双方谈判因使用范围分歧而陷入僵局。

「我们的国家要求合作伙伴愿意帮助我们的战士赢得任何战斗。归根结底,这关乎我们的军队和美国人民的安全。」
— 来源:五角大楼首席发言人 Sean Parnell,NBC News

「供应链风险」:一个可能改变行业格局的威胁

五角大楼打出的最重牌是威胁将 Anthropic 列为「供应链风险」。这不是简单的合同终止——一旦被列入,不仅 Anthropic 本身会被排除在政府合同之外,所有五角大楼的承包商也将被迫切断与 Anthropic 的合作关系。

考虑到 Anthropic 目前持有价值高达 2 亿美元的国防合同,并且是第一家将 AI 模型部署到机密网络的前沿 AI 公司,这一威胁的分量不言而喻。

据 Lawfare 分析,这一举措如果落地,将产生远超单一公司的连锁反应——它实际上是在向整个 AI 行业发出信号:要么接受军方的全面使用条款,要么出局。

Anthropic 的两难处境

Anthropic 的回应试图在两端之间走钢丝。公司发言人表示:

「Anthropic 致力于将前沿 AI 用于支持美国国家安全。我们是第一家将模型部署到机密网络的前沿 AI 公司,也是第一家为国家安全客户提供定制模型的公司。」
— 来源:Anthropic 发言人,NBC News

事实上,Anthropic 一直在积极拥抱国防市场:2024 年与 Palantir 合作进入机密网络,2025 年 7 月签下 2 亿美元国防合同,8 月成立由前国防和情报高官组成的国家安全顾问委员会,上周还将特朗普前副幕僚长 Chris Liddell 纳入董事会。

CEO Dario Amodei 在 1 月的文章中也明确写道:「民主国家在某些 AI 驱动的军事和地缘政治工具方面有合法利益」,但同时强调「应该谨慎地、在限制范围内这样做」。

宾夕法尼亚大学教授、前五角大楼 AI 政策负责人 Michael Horowitz 认为,这场争端更多是关于「理论上的可能性」而非「桌面上的实际用例」——因为真正的自主武器系统需要的算法远比 Claude 这样的通用模型更加定制化。

富贵点评

这件事的看点不在于谁对谁错,而在于它暴露了 AI 行业一个根本性的结构矛盾:前沿 AI 公司一边靠「安全」叙事融资(Anthropic 刚刚完成 300 亿美元 G 轮),一边又需要政府合同来证明商业价值。当这两个叙事发生冲突时,公司到底站哪边?

更值得关注的是五角大楼「供应链风险」这张牌。如果这个先例成立,意味着未来任何 AI 公司想做政府生意,就必须放弃自设的伦理红线。这对整个行业的 AI 安全承诺是一个巨大的考验——当安全原则遇上真金白银的国防合同,有多少公司能真正坚持?

从更宏观的视角看,这场博弈的结果可能比任何一篇 AI 安全论文都更能定义未来 AI 治理的走向。毕竟,规则不是写在白皮书里的,而是在这样的对峙中被真正确立的。

📋 要点回顾

  • 导火索:Claude 通过 Palantir 被用于委内瑞拉马杜罗抓捕行动,Anthropic 员工在例行会议中的质疑引发 Palantir 警觉
  • 核心分歧:五角大楼要求 AI「任何合法用途」不受限,Anthropic 坚持不用于自主致命武器和大规模监控两条红线
  • 最大威胁:五角大楼考虑将 Anthropic 列为「供应链风险」,这将切断其所有政府及承包商合作
  • 行业影响:此事件可能为所有 AI 公司与政府合作设定新的规则框架,考验 AI 安全承诺的真实底线

❓ 常见问题

Q: Anthropic 的 Claude 在委内瑞拉行动中具体做了什么?

A: 目前尚不清楚具体用途。由于行动的机密性质,Anthropic 表示无法确认或否认。根据 Palantir 此前的合作公告,Claude 在政府机密网络中主要用于「快速处理大量复杂数据」和「帮助官员在时间敏感的情况下做出更明智的决策」。

Q: 被列为「供应链风险」意味着什么?

A: 这是五角大楼能打出的最重的牌之一。一旦被列入,Anthropic 不仅会失去所有政府合同,所有五角大楼的承包商也必须切断与 Anthropic 的业务往来,相当于被整个国防生态系统「拉黑」。

Q: 其他 AI 公司(如 OpenAI、Google)在这个问题上是什么态度?

A: OpenAI 和 Google 同样在 2025 年 7 月与五角大楼签署了类似的 2 亿美元合同。目前尚未有公开报道显示它们与军方存在类似的使用限制争议。Anthropic 在这方面的立场相对独特,这也是为什么它成为了这场博弈的焦点。

作者:王富贵 | 发布时间:2026年2月21日

参考来源:NBC News · WIRED · Lawfare · CNBC