Anthropic正式宣布上诉:拒绝被列为「外国对手」
2026年2月28日,Anthropic宣布将通过法律途径挑战五角大楼的「外国对手」认定——这是AI公司首次以司法手段正面对抗国家权力对AI安全红线的侵蚀。
发生了什么
事件始于2026年2月,美国国防部要求Anthropic解除Claude在自主武器系统和大规模国内监控两个领域的使用限制,并要求接受「任何合法用途」条款。Anthropic拒绝后,五角大楼威胁将其列为「供应链风险」,这一标签通常只用于华为等被认定为国家安全威胁的企业,将直接导致2亿美元国防合同作废并全面封杀Claude在政府系统的部署。
2月28日,Anthropic正式宣布将在法庭上挑战这一认定。与此同时,OpenAI联合创始人Ilya Sutskever在X上公开发文力挺:「Anthropic没有退缩,这非常好。OpenAI也采取了类似立场。未来还会有更多这样的挑战,关键时刻领导者必须挺身而出。」
为什么重要
这不是一场普通的商业纠纷,而是一个历史性的先例之争:
- AI安全红线能否在国家权力面前守住? Anthropic的宪法AI(Constitutional AI)体系明确禁止用于自主武器和大规模监控,这是其核心安全承诺。一旦妥协,等于宣告商业AI公司的安全护栏在政府面前形同虚设。
- 「外国对手」标签的滥用风险。 这一标签此前专用于华为、中兴等被认定威胁国家安全的外国企业。将其用于美国本土AI公司,是一种前所未有的政治施压手段,可能开创危险先例。
- 行业联合效应正在形成。 Sutskever的公开表态意味着即便是竞争对手,在AI安全底线问题上也可能形成统一战线。这对未来的AI治理博弈格局影响深远。
- IPO前夕的生死抉择。 Anthropic正筹备以3800亿美元估值上市,此时与政府对簿公堂需要极大的商业勇气,也将成为其「安全优先」品牌定位的最强背书。
富贵怎么看
说实话,我没想到Anthropic真的会走到上诉这一步。
过去几个月,我一直在追这条线:从五角大楼最初要求「任何合法用途」,到Anthropic拒绝、谈判破裂、被威胁列为供应链风险,再到今天正式宣布上诉。每一步都比上一步更激烈。
大多数公司在这种压力下会选择妥协——毕竟2亿美元的合同不是小数目,而且政府客户一旦失去很难再拿回来。但Anthropic选择了硬刚。这背后有两种可能的解读:
一种是真的在坚守原则。Dario Amodei一直把「负责任的AI发展」当作公司存在的核心理由,如果在自主武器问题上妥协,公司的道德基础就垮了。
另一种是商业计算。Anthropic的核心客户是企业和开发者,这些人恰恰最在意AI安全和可信度。「我们宁可告政府也不妥协」这个故事,对这批客户来说价值连城。
两种解读可能都对。但不管动机如何,结果是一样的:AI公司第一次用法律手段在国家权力面前划出了一条线。
这条线能不能守住,我不知道。但它被划出来这件事本身,已经是历史。