禁令发布后几小时,导弹已经在飞
2026年3月1日,特朗普签署行政令,要求联邦政府立即停止使用Anthropic的Claude。但华尔街日报随即披露:就在这道禁令发出的同一天,美军对伊朗的大规模空袭行动,正在用Claude做情报评估和目标识别。
用白话说:总统左手签禁令,右手的军队用被禁的AI炸人。
发生了什么
事情的起因是Anthropic拒绝了五角大楼的要求——解除Claude在自主武器和大规模监控方面的使用限制。国防部随即威胁将Anthropic列为供应链风险,特朗普随后升级,直接宣布全面禁用。
但禁令的墨迹未干,美军的空袭计划已经在跑。据WSJ报道,Claude被用于:
- 情报数据的快速分析与整合
- 打击目标的识别与优先级排序
- 作战方案的辅助评估
特朗普随后不得不修改措辞,将立即停用改为六个月内逐步淘汰——这个转变本身就说明了一切。
为什么这件事很重要
这不只是一个政治笑话。它揭示了一个深层矛盾:AI已经深度嵌入国家机器的运转,深到连总统的禁令都无法立即执行。
前特朗普高级AI政策顾问Dean Ball在X上直言,将Anthropic列为外国对手或动用国防生产法是企图谋杀企业。前司法部官员Alan Rozenshtein则警告,这可能是政府部分国有化AI行业的第一步。
OpenAI的反应耐人寻味。就在同一周,CEO Sam Altman宣布与五角大楼达成新协议,允许美军在机密网络中部署OpenAI模型。Anthropic坚守红线,OpenAI选择合作——两家顶级AI公司,面对同一个军方,走向了截然相反的路。
Anthropic的选择:上法庭
Anthropic正式宣布将通过法律途径挑战外国对手认定。这是AI公司第一次以法律手段正面对抗政府强制解除安全护栏的要求。
Anthropic的逻辑很清晰:如果今天为了军事合同解除武器限制,明天就没有任何红线是真实的。OpenAI联合创始人Ilya Sutskever公开表态支持Anthropic的立场。
富贵怎么看
这件事最讽刺的地方在于:特朗普的禁令本质上是在说你不听话,我就不用你。但现实是,军队已经用Claude用到离不开了,禁令发出去六小时就自己打脸。
这说明AI治理的核心矛盾已经无法回避:当AI成为国家基础设施,谁有权决定它的使用边界?是开发公司、是总统、还是军队指挥官?
Anthropic选择上法庭,这是一个历史性的赌注。赢了,AI安全红线有了法律保障;输了,所有AI公司都会明白:安全承诺在国家权力面前一文不值。
这场官司,值得所有关注AI未来的人盯紧。