五角大楼要求 AI 公司在机密网络上「解除限制」:当 ChatGPT 走进绝密作战室,谁来为幻觉买单?

📌 一句话总结:五角大楼要求 OpenAI、Anthropic 等 AI 公司在机密军事网络上部署「解除限制」的 AI 模型,OpenAI 已在非机密网络让步,Anthropic 坚守底线拒绝自主武器应用——这场博弈将决定 AI 在未来战场上的角色边界。

2026年2月13日 · 深度解读 · 阅读时间约 8 分钟

事件背景:一场白宫会议引爆的军事 AI 争议

2026 年 2 月 10 日,一场看似普通的白宫科技高管会议上,五角大楼首席技术官 Emil Michael 向在座的科技公司高管们抛出了一个让整个行业震动的要求:美国军方计划在所有密级层面部署前沿 AI 能力——包括处理最高机密信息的机密网络。

这不是一个模糊的愿景声明。据路透社援引两位知情人士透露,五角大楼正在积极推动 OpenAI、Anthropic、Google 和 xAI 等头部 AI 公司,将它们的 AI 工具部署到机密军事网络上,并且要求取消这些公司通常对用户施加的大部分使用限制。

「五角大楼正在推动在所有密级层面部署前沿 AI 能力。」
— 来源:Reuters 独家报道

要理解这件事的分量,需要先搞清楚一个关键区别:美国军方的网络分为非机密网络(用于日常行政管理)和机密网络(用于任务规划、武器瞄准等高度敏感工作)。目前,几乎所有 AI 公司为军方定制的工具都只运行在非机密网络上。唯一的例外是 Anthropic,其 Claude 通过第三方服务商已经可以在机密环境中使用——但仍然受到公司使用政策的约束。

五角大楼现在要做的,是把这道防线彻底推倒。

OpenAI 的选择:300 万国防部员工已经在用 ChatGPT

就在 Emil Michael 发表讲话的同一周,OpenAI 与五角大楼达成了一项协议:军方可以在名为 genai.mil 的非机密网络上使用 OpenAI 的工具,包括 ChatGPT。这个网络已经覆盖了超过 300 万国防部员工。

作为协议的一部分,OpenAI 同意移除了大部分常规使用限制,尽管保留了一些安全护栏。Google 和 xAI 此前也达成了类似的协议。

但 OpenAI 的发言人特别强调:这份协议仅限于通过 genai.mil 的非机密使用。如果要扩展到机密网络,需要签订新的或修改后的协议。

这句话的潜台词很明确:OpenAI 知道机密网络是一条完全不同的红线,它还没有准备好跨过去——至少目前还没有。

Anthropic 的抵抗:「我们不做自主武器,不做国内监控」

如果说 OpenAI 的态度是「谨慎配合」,那么 Anthropic 的立场就是「有条件抵抗」。

路透社此前曾报道,Anthropic 与五角大楼之间的谈判明显更加紧张。Anthropic 的高管们明确告诉军方官员:他们不希望自己的技术被用于自主武器瞄准和美国国内监控

但 Anthropic 并没有完全关上大门。其发言人表示:

「Anthropic 致力于保护美国在 AI 领域的领先地位,帮助美国政府应对外国威胁,为作战人员提供最先进的 AI 能力。Claude 已经被美国政府广泛用于国家安全任务,我们正在与国防部进行富有成效的讨论。」
— 来源:Rappler / Reuters

这段声明的措辞非常微妙。Anthropic 同时在做两件看似矛盾的事:一方面坚持自己的安全红线(不做自主武器、不做国内监控),另一方面又在强调自己对国家安全的贡献。这种「既要又要」的姿态,反映的是 AI 公司在商业利益和伦理原则之间的真实困境。

核心矛盾:军方要「无限制使用」,AI 公司要「安全护栏」

这场博弈的核心矛盾其实很简单:

五角大楼的逻辑是:只要符合美国法律,军方就应该能够自由使用商业 AI 工具。AI 公司自行设定的额外限制是不必要的,甚至是对军事行动的阻碍。

AI 公司的逻辑是:我们的模型会产生幻觉、会编造信息、会犯错。在机密军事环境中,这些错误可能导致致命后果。所以我们需要保留安全护栏,限制某些高风险用途。

AI 研究人员对此发出了明确警告:AI 聊天机器人仍然会产生「幻觉」——生成听起来合理但完全虚假的信息。在机密环境中,这种错误可能带来致命后果

想象一下这样的场景:一个 AI 模型在分析卫星图像时「幻觉」出了一个不存在的军事目标,或者在综合情报信息时编造了一条不存在的威胁。在非机密的行政环境中,这种错误可能只是一个尴尬的笑话。但在机密作战环境中,它可能意味着一次错误的空袭、一个无辜平民的死亡、或者一场不必要的军事冲突。

更大的图景:AI 军事化的全球竞赛

五角大楼的急迫感并非没有原因。当前的战场形态正在被自主无人机蜂群、机器人和网络攻击所主导。在这场 AI 军事化的全球竞赛中,美国面临着来自中国和俄罗斯的激烈竞争。

从这个角度看,五角大楼的逻辑链条是清晰的:

阶段现状目标
非机密网络OpenAI、Google、xAI 已部署(部分限制移除)✅ 已基本实现
机密网络仅 Anthropic 通过第三方可用(受使用政策约束)全面部署,取消限制
自主武器系统AI 公司普遍设有红线尚未明确要求(但趋势明显)

值得注意的是,特朗普总统已经下令将国防部更名为「战争部」(Department of War)——虽然这需要国会批准,但这个信号本身就说明了当前美国军事政策的方向。在这种政治氛围下,AI 公司面临的压力只会越来越大。

四家公司,四种姿态

从目前的公开信息来看,四家主要 AI 公司对军方需求的回应形成了一个有趣的光谱:

公司当前状态态度
OpenAI已在 genai.mil 部署,移除大部分限制配合但划线(机密网络需新协议)
Google已达成类似协议低调配合
xAI已达成类似协议积极配合
Anthropic唯一在机密网络可用(通过第三方)坚持红线(拒绝自主武器和国内监控)

讽刺的是,在安全立场上最强硬的 Anthropic,反而是目前唯一在机密网络上有存在感的公司。这说明军方对 Anthropic 技术的需求是真实的——即使双方在使用条件上存在严重分歧。

富贵点评

这件事让我想到一个很现实的问题:AI 公司的「安全护栏」到底是谁的护栏?

表面上看,这是五角大楼和 AI 公司之间的拉锯战。但往深了想,这其实是关于「谁有权定义 AI 的使用边界」的根本性问题。AI 公司说「我们的模型会犯错,所以需要限制」;军方说「只要合法,我们就该能用」。两边都有道理,但都回避了一个更尖锐的问题:当一个已知会产生幻觉的系统被放进可能决定生死的决策链中,出了事谁负责?

Anthropic 的立场值得尊重,但也很脆弱。在国家安全的大旗下,商业公司的伦理底线能坚持多久?Google 曾经因为 Project Maven 引发员工抗议而退出军事 AI 项目,但现在已经悄悄回到了谈判桌上。OpenAI 两年前还声称不做军事应用,现在 300 万国防部员工已经在用 ChatGPT。

历史告诉我们,当政府需要某项技术用于军事目的时,商业公司的抵抗通常只是时间问题。真正的问题不是「AI 会不会进入战场」——它已经在了——而是「我们能不能建立足够强大的制度框架,确保 AI 在战场上的使用是负责任的」。目前来看,这个框架还远远没有建立起来。

📋 要点回顾

  • 五角大楼的要求:在所有密级层面部署前沿 AI 能力,取消 AI 公司自行设定的使用限制,军方认为只要合法就应该能自由使用
  • OpenAI 的让步:已在非机密网络 genai.mil 上为 300 万国防部员工部署 ChatGPT,移除大部分使用限制,但机密网络需要新协议
  • Anthropic 的坚守:唯一在机密网络有存在感的 AI 公司,但明确拒绝技术被用于自主武器瞄准和国内监控
  • 核心风险:AI 模型已知会产生幻觉和编造信息,在机密军事环境中这种错误可能导致致命后果
  • 行业趋势:Google、xAI 已低调配合,AI 公司对军事应用的抵抗正在逐步瓦解,制度框架建设严重滞后

❓ 常见问题

Q: genai.mil 是什么?普通人能访问吗?

A: genai.mil 是美国国防部的非机密 AI 网络平台,已覆盖超过 300 万国防部员工。它运行在非机密网络上,用于日常行政和办公任务。普通公众无法访问,仅限国防部内部人员使用。

Q: 为什么 AI 公司不愿意在机密网络上部署?

A: 主要有两个原因。第一,机密网络涉及任务规划、武器瞄准等高度敏感工作,AI 的幻觉问题在这种环境下可能造成致命后果。第二,AI 公司担心失去对自身技术使用方式的控制权——一旦模型进入机密环境,公司很难监督它被如何使用。

Q: Anthropic 为什么态度和其他公司不同?

A: Anthropic 从创立之初就将 AI 安全作为核心使命,其创始团队正是因为对 OpenAI 安全方向的不满而出走创业。公司明确划定了两条红线:不允许技术用于自主武器瞄准,不允许用于美国国内监控。但 Anthropic 也面临商业压力——它刚完成 300 亿美元融资,需要向投资者证明自己的商业价值。

Q: 这对普通用户意味着什么?

A: 短期内对普通用户没有直接影响。但长期来看,AI 公司在军事领域的让步可能影响它们对民用产品的安全标准。如果一家公司愿意为军方移除安全护栏,那么在商业压力下,民用产品的安全标准是否也会逐步降低?这是值得关注的趋势。

作者:王富贵 | 发布时间:2026年2月13日

参考来源:Reuters · The Decoder · Rappler · NewsBytes