📌 一句话总结:《华尔街日报》报道,Anthropic 的 Claude AI 被美军用于抓捕委内瑞拉前总统马杜罗的实战行动中,这是商业 AI 首次被证实直接参与真实军事作战。
2026年02月14日 · 资讯分享 · 阅读时间约 4 分钟
事件始末
2026 年 2 月 13 日,路透社、《华尔街日报》、Axios 等多家权威媒体同时报道了一条重磅消息:Anthropic 的 AI 模型 Claude 被美国军方用于上个月在委内瑞拉执行的军事突袭行动——该行动的目标是抓捕前总统尼古拉斯·马杜罗。
据知情人士透露,Claude 不仅仅是在行动的准备和规划阶段提供了支持,而是在实际作战过程中也发挥了作用。这一细节让这条新闻的分量陡然加重——这意味着一个商业 AI 系统第一次被证实直接嵌入了真实的军事行动链条。
行动本身的结果是:没有美军人员在突袭中阵亡,但古巴和委内瑞拉方面表示有数十名士兵和安全人员在行动中丧生。
为什么这件事意义重大
这条新闻之所以引发全球关注,核心在于三个层面的冲击:
第一,Anthropic 一直以「AI 安全」作为公司的核心品牌定位。CEO Dario Amodei 此前多次公开表达对 AI 被用于致命目的的担忧,公司甚至在与五角大楼的谈判中坚持拒绝「所有合法用途」条款,明确反对其技术被用于自主武器瞄准和国内监控。然而现在,Claude 却出现在了一场真实的军事突袭中。
第二,这打破了一个行业默认的边界。此前,AI 公司与军方的合作主要停留在后勤、情报分析、文档处理等「非作战」领域。Claude 被用于实战行动,意味着商业 AI 已经从「支援角色」跨入了「作战角色」。
第三,时间节点耐人寻味。就在两天前(2 月 11 日),路透社刚刚报道五角大楼正在向 AI 公司施压,要求将 AI 部署到机密军事网络并取消使用限制。现在看来,这种部署可能比外界想象的走得更远、更快。
Claude 不仅用于行动准备阶段,还在实际作战过程中发挥了作用。
— 来源:Axios
Anthropic 的两难困境
这件事把 Anthropic 推到了一个极其尴尬的位置。作为一家刚刚完成 300 亿美元融资、估值 3800 亿美元的公司,Anthropic 的品牌叙事建立在「负责任的 AI」之上。但军事应用——尤其是实战应用——显然是这个叙事中最敏感的灰色地带。
值得注意的是,就在上周,Anthropic 的安全团队负责人 Mrinank Sharma 刚刚发表公开信称「世界正处于危险之中」后辞职。虽然他的辞职原因可能与此事无直接关联,但这种时间上的巧合让外界对 Anthropic 内部在军事合作问题上的分歧产生了更多猜测。
Fox News 的报道进一步指出,这一事件引发了关于 AI 在机密五角大楼任务中不断扩大角色的严肃质疑。当一个以「安全」著称的 AI 公司的产品出现在战场上,整个行业关于 AI 伦理边界的讨论都需要重新校准。
行业连锁反应
这条新闻的影响不会局限于 Anthropic 一家。OpenAI 已经同意将 ChatGPT 接入覆盖 300 多万国防部员工的非密网络,Google 和 xAI 也已接受五角大楼的「所有合法用途」条款。如果 Claude 在实战中的应用被证明是有效的,其他 AI 公司面临的军方压力只会更大。
与此同时,这也给正在推进 AI 监管的各国政府提出了新的课题。联合国刚刚在两天前投票通过成立独立 AI 科学小组,而美国投了反对票。当商业 AI 已经走上战场,国际社会对 AI 军事化的治理框架显然还远远没有跟上。
富贵点评
说实话,看到这条新闻的时候我愣了好几秒。Anthropic 是整个 AI 行业里最高调喊「安全」的公司,结果它的模型第一个被证实用在了真枪实弹的军事行动里。这不是说 Anthropic 做错了什么——军方使用商业技术本身并不违法——但这种「说一套做一套」的观感,对整个 AI 安全叙事的公信力是一次不小的打击。
更让我在意的是那个细节:Claude 不只是用在准备阶段,而是在实际作战中也参与了。这意味着 AI 已经不是在后方画 PPT 的参谋,而是坐在了指挥桌上。从技术发展的角度看,这可能是不可逆的——一旦军方尝到了 AI 辅助作战的甜头,就不可能再回到没有 AI 的时代。问题是,当 AI 参与的决策链条涉及到人的生死,我们准备好了吗?
📋 要点回顾
- 首次实战证实:Anthropic 的 Claude AI 被美军用于抓捕委内瑞拉前总统马杜罗的军事行动,不仅用于准备阶段,还参与了实际作战过程
- 安全叙事受冲击:Anthropic 一直以 AI 安全为核心品牌,此前明确反对 AI 用于自主武器,但其产品却出现在了真实战场上
- 行业边界被打破:商业 AI 从「后勤支援」跨入「作战参与」,这一先例将加速其他 AI 公司与军方的深度合作
- 治理框架滞后:AI 军事化的速度远超国际监管的推进速度,联合国刚成立 AI 科学小组,美国却投了反对票
❓ 常见问题
Q: Claude 在军事行动中具体做了什么?
A: 目前报道没有披露具体细节,只透露 Claude 不仅用于行动准备阶段(如情报分析、方案规划),还在实际作战过程中发挥了作用。具体的应用场景仍属机密。
Q: Anthropic 是否知情并同意了这次军事使用?
A: 报道中没有明确说明 Anthropic 是否事先知情。但考虑到五角大楼此前一直在与 AI 公司谈判部署条款,且 Anthropic 已有产品接入政府网络,这种使用可能在某种合同框架内进行。
Q: 这是否违反了 Anthropic 的使用政策?
A: Anthropic 此前明确反对 AI 用于「自主武器瞄准」和「国内监控」,但并未完全禁止所有军事用途。如果 Claude 是作为辅助决策工具而非自主武器系统使用,可能并不直接违反其公开政策——但这显然处于灰色地带。