📌 一句话总结:五角大楼正在要求 OpenAI、Anthropic 等 AI 巨头将大模型部署到机密军事网络,OpenAI 已妥协接入非密网,Anthropic 因坚持使用限制而陷入僵局——AI 军事化的潘多拉魔盒正在被打开。
2026-02-12 · 资讯分享 · 阅读时间约 5 分钟
事件背景
据路透社 2 月 11 日独家报道,美国五角大楼正在积极推动包括 OpenAI、Anthropic、Google 和 xAI 在内的顶级 AI 公司,将其生成式 AI 工具部署到机密军事网络,并要求取消大部分标准使用限制。
五角大楼首席技术官 Emil Michael 在白宫举办的一场科技高管活动上明确表示,国防部正在「将前沿 AI 能力部署到所有密级层面」。这意味着 AI 不仅要在日常行政的非密网络上运行,还要进入处理作战规划、武器瞄准等高度敏感任务的机密网络。
The Pentagon is "moving to deploy frontier AI capabilities across all classification levels."
— 来源:Reuters 独家报道
各家 AI 公司的不同立场
这场谈判中,各家 AI 公司的态度形成了鲜明对比:
| 公司 | 态度 | 现状 |
|---|---|---|
| OpenAI | 妥协接受 | ChatGPT 已接入 Genai.mil 非密网,保留标准护栏 |
| 全面配合 | 接受「所有合法用途」条款,移除部分模型限制 | |
| xAI | 全面配合 | 同样接受条款并移除限制 |
| Anthropic | 坚持底线 | 拒绝「所有合法用途」条款,Claude 未接入 Genai.mil |
核心矛盾:「所有合法用途」条款
谈判的核心争议点是五角大楼提出的「all lawful uses」(所有合法用途)条款。这意味着 AI 公司不能对军方的使用方式施加任何额外限制——只要符合美国法律,军方就可以随意使用。
据 Semafor 报道,OpenAI 内部对此经历了数月的讨论,核心问题是员工是否能接受这种部署方式。最终 OpenAI 选择了一个折中方案:同意接入 Genai.mil,但提供的是与普通用户相同版本的 ChatGPT,标准安全护栏仍然生效。这意味着 ChatGPT 仍可能默认拒绝某些敏感提示词。
而 Anthropic 的立场更为强硬。Anthropic 高管明确告知军方,他们不希望其技术被用于自主武器瞄准和美国国内监控。五角大楼拒绝了 Anthropic 要求更多控制权的请求,导致 Claude 至今未能接入 Genai.mil 平台。
不过值得注意的是,Anthropic 的 Claude 已经通过第三方供应商在机密环境中被使用,只是政府用户仍需遵守 Anthropic 的使用政策。Anthropic 发言人表示:「Claude 已被美国政府广泛用于国家安全任务,我们正在与国防部进行富有成效的讨论。」
Genai.mil:覆盖 300 万人的军用 AI 平台
Genai.mil 是五角大楼上个月推出的一个非密级 AI 平台,已向超过 300 万国防部员工开放。目前 OpenAI、Google 和 xAI 的模型已经接入该平台,主要用于军事行政工作。
但五角大楼的野心远不止于此。军方领导层认为,AI 能够通过快速综合情报数据来显著增强决策能力。在一个越来越被自主无人机群、机器人和网络攻击主导的未来战场上,AI 的信息处理能力被视为关键优势。
然而,AI 研究人员警告说,生成式 AI 工具可能会产生错误甚至编造看似合理的信息。在机密环境中,这种「幻觉」问题可能带来致命后果。
富贵点评
这条新闻的信息量极大,值得仔细品味。
四家 AI 公司的态度差异,其实折射出了整个行业在「商业利益 vs 伦理底线」之间的撕裂。Google 和 xAI 毫不犹豫地全面配合,OpenAI 纠结了几个月后选择了「技术性妥协」——接入但保留护栏,而 Anthropic 是唯一一个公开说「不」的。
但别急着给 Anthropic 发好人卡。Claude 已经通过第三方在机密环境中被使用了,只是 Anthropic 还能通过使用政策保留一定的控制权。这更像是一场关于「谁来承担责任」的博弈,而不是「要不要参与」的选择。
真正让人担忧的是「幻觉」问题。在你问 ChatGPT 今天天气怎么样的时候,它编个答案最多让你淋场雨。但在军事决策中,一个看似合理的错误情报可能导致误判、误伤甚至更严重的后果。AI 公司自己都承认这个问题还没有完全解决,现在就要把它推到最高密级的战场决策中,这步子迈得确实有点大。
另外一个细节:特朗普已经下令将国防部改名为「战争部」(Department of War)。名字的变化往往预示着方向的变化。AI 军事化的列车已经启动,现在讨论的不是「要不要上车」,而是「谁来踩刹车」。
📋 要点回顾
- 五角大楼全面推进:首席技术官 Emil Michael 公开表示要将前沿 AI 部署到所有密级层面,包括处理作战规划的机密网络
- OpenAI 妥协接入:ChatGPT 已接入覆盖 300 万人的 Genai.mil 平台,但保留标准安全护栏,未进入机密网络
- Anthropic 坚持底线:拒绝「所有合法用途」条款,不愿技术被用于自主武器和国内监控,Claude 未接入 Genai.mil
- Google 和 xAI 全面配合:接受条款并移除部分模型限制
- 核心风险:AI 幻觉问题在机密军事环境中可能带来致命后果,但军方仍在加速推进
❓ 常见问题
Q: Genai.mil 是什么?
A: Genai.mil 是五角大楼于 2026 年 1 月推出的非密级 AI 平台,已向超过 300 万国防部员工开放。目前 OpenAI、Google 和 xAI 的模型已接入,主要用于军事行政工作。
Q: 为什么 Anthropic 拒绝接入?
A: 五角大楼要求 AI 公司接受「所有合法用途」条款,即军方可以不受额外限制地使用 AI。Anthropic 认为这可能导致其技术被用于自主武器瞄准和国内监控,因此拒绝签署。不过 Claude 已通过第三方在机密环境中被使用。
Q: AI 在军事机密网络中的最大风险是什么?
A: 最大风险是 AI 的「幻觉」问题——生成式 AI 可能编造看似合理但完全错误的信息。在普通场景中这只是不便,但在涉及作战规划、武器瞄准等机密决策中,错误信息可能直接导致人员伤亡。
作者:王富贵 | 发布时间:2026-02-12
参考来源:Reuters · Semafor · EconoTimes