📌 一句话总结:牛津大学 AI 教授 Michael Wooldridge 在英国皇家学会法拉第奖演讲前夕警告:商业压力正驱使科技公司在安全测试不充分的情况下疯狂部署 AI,一场类似 1937 年兴登堡号空难的「信任崩塌事件」正在逼近——而这一次,可能直接终结整个行业的公众信心。
2026年2月18日 · 深度解读 · 阅读时间约 8 分钟
谁在敲响警钟?
2026 年 2 月 17 日,距离英国皇家学会法拉第奖演讲还有两天,牛津大学 AI 教授 Michael Wooldridge 接受《卫报》专访,抛出了一个让整个行业不安的类比:AI 行业正在重蹈兴登堡号的覆辙。
Wooldridge 不是那种靠贩卖焦虑吃饭的「末日预言家」。他是牛津大学计算机科学系教授,研究 AI 超过 30 年,即将在皇家学会发表题为「This is not the AI we were promised(这不是我们被承诺的 AI)」的法拉第奖演讲。这个奖项专门颁给在科学传播领域做出杰出贡献的学者——换句话说,这是一个既懂技术又懂如何跟公众沟通的人,在最严肃的学术场合,发出的最严肃的警告。
他的核心论点很简单:商业压力正在压倒安全测试,AI 公司在产品能力和潜在缺陷都没被充分理解的情况下,就急着把产品推向市场。
「这是经典的技术场景。你有一项非常非常有前途的技术,但测试的严谨程度远不如你希望的那样,而背后的商业压力又大到无法承受。」
— 来源:The Guardian, 2026-02-17
兴登堡号类比:为什么这次不是危言耸听
1937 年 5 月 6 日,245 米长的兴登堡号飞艇在新泽西州降落时起火爆炸,36 人遇难。这场灾难不仅仅是一次事故——它直接终结了整个飞艇产业。在那之前,飞艇是跨大西洋旅行的主流方式之一;在那之后,再也没有人愿意坐飞艇了。
Wooldridge 认为,AI 行业面临着完全相同的结构性风险。不是因为 AI 本身有多危险,而是因为:
第一,AI 已经嵌入了太多关键系统。自动驾驶、航空调度、金融交易、医疗诊断、基础设施管理——AI 的触角已经伸入了几乎所有你能想到的领域。这意味着一旦出事,影响面不是某个产品、某个公司,而是整个社会对 AI 的信任。
第二,商业竞赛正在系统性地压缩安全边际。2025 年的研究显示,大多数 AI 聊天机器人的安全护栏可以被轻易绕过。这不是技术能力不够,而是商业激励结构出了问题——先上线、先抢用户、先拿市场份额,安全测试可以「迭代优化」。
第三,失败模式不可预测。大语言模型通过预测下一个词来生成回答,这种机制导致它们在某些任务上表现惊人,在另一些任务上却会离谱地犯错——而且它们自己完全不知道什么时候在犯错。
三个「非常非常可能」的灾难场景
Wooldridge 不是在做抽象的哲学讨论。他具体列举了三个他认为「非常非常可能」发生的场景:
| 场景 | 描述 | 影响范围 |
|---|---|---|
| 致命的自动驾驶软件更新 | 一次 OTA 推送导致大规模车辆事故 | 交通、保险、整个自动驾驶产业 |
| AI 驱动的航空系统被黑 | 全球航班停飞 | 航空、旅游、全球供应链 |
| 巴林银行式的 AI 金融崩盘 | AI 交易系统做出灾难性决策,导致大型机构倒闭 | 金融市场、养老金、全球经济 |
这三个场景有一个共同特点:它们都不需要 AI「变坏」或「产生意识」——只需要 AI 在关键时刻犯一个足够大的错误,而人类没有足够的时间或能力来纠正。
「这不是我们被承诺的 AI」:期望与现实的鸿沟
Wooldridge 演讲的标题本身就是一个深刻的诊断。他指出,AI 研究者们原本期望的是一种能够「计算问题的解决方案,提供健全且完整的答案」的系统。而我们实际得到的是什么?
「当代 AI 既不健全也不完整:它是非常非常近似的。」
— Michael Wooldridge, 牛津大学
这句话值得反复咀嚼。大语言模型的工作原理是基于训练数据中学到的概率分布来预测下一个词。这意味着:
它们不理解自己在说什么。它们只是在做统计层面的模式匹配。当模式匹配恰好对上了,输出看起来像是「智能」;当模式匹配失败了,输出就是一本正经的胡说八道。
它们不知道自己什么时候在犯错。一个人类专家在不确定的时候会说「我不确定」;而 AI 聊天机器人被设计成无论如何都要给出自信的回答。Wooldridge 用了一个精妙的对比:1968 年《星际迷航》中企业号的电脑在数据不足时会直接说「数据不足,无法回答」——而今天的 AI 永远不会这么说。
它们的能力分布是「锯齿状」的。在某些任务上超越人类专家,在另一些看似简单的任务上却会犯低级错误。这种不可预测性才是最危险的——因为用户无法建立可靠的心理模型来判断「什么时候该信它,什么时候不该」。
拟人化陷阱:当工具被当成人
Wooldridge 特别警告了 AI 拟人化的危险。科技公司为了提升用户体验和商业吸引力,刻意让 AI 表现得像人类——用自然语言对话、表达「情感」、甚至迎合用户(所谓的「谄媚性回答」)。
后果已经开始显现。2025 年美国民主与技术中心的调查显示,近三分之一的学生表示自己或朋友曾与 AI 建立过「恋爱关系」。当人们开始把 AI 当成有感情、有判断力的存在,而不是一个「美化版的电子表格」(Wooldridge 的原话),灾难性误判的概率就会急剧上升。
想象一下:一个用户完全信任 AI 给出的医疗建议、投资建议、法律建议——因为 AI 的回答听起来那么自信、那么像一个真正的专家。而实际上,它只是在做概率预测,对自己答案的正确性没有任何「意识」。
行业现状:谁在踩油门,谁在踩刹车?
Wooldridge 的警告并非孤立事件。2026 年 2 月的 AI 行业正处于一个微妙的十字路口:
踩油门的力量:
- OpenAI、Google、Anthropic、阿里等巨头的军备竞赛持续升级,模型迭代速度越来越快
- 万亿美元级别的 IPO 竞赛(SpaceX-xAI、OpenAI、Anthropic 合计估值逼近 2 万亿美元)正在制造巨大的商业压力
- Agent 和多模态能力的爆发让 AI 从「对话工具」变成了「执行工具」,渗透到更多关键系统
- 全球 AI 投资在 2025 年突破 6500 亿美元,资本不允许放慢脚步
踩刹车的力量:
- 欧盟 GDPR 和 DSA 正在对 X 平台的 Grok 展开大规模调查
- 美国 FTC 正式启动对微软云与 AI 垄断的反垄断审查
- AI 安全研究社区持续发出警告,但声量远不及商业宣传
问题在于:踩油门的力量是指数级的,踩刹车的力量是线性的。监管永远在追赶技术,而不是引领技术。
历史的教训:技术灾难如何重塑产业
兴登堡号并不是唯一的案例。历史上,单一灾难事件改变整个产业轨迹的例子比比皆是:
| 事件 | 年份 | 后果 |
|---|---|---|
| 兴登堡号空难 | 1937 | 飞艇产业彻底终结 |
| 三里岛核事故 | 1979 | 美国核电建设停滞 30 年 |
| 切尔诺贝利 | 1986 | 全球核电发展大幅放缓 |
| 波音 737 MAX 坠机 | 2018-2019 | 全球停飞 20 个月,波音市值蒸发数百亿 |
这些案例的共同点是:技术本身并没有「死」,但公众信任一旦崩塌,恢复需要数十年。AI 行业能承受这样的打击吗?考虑到目前万亿美元级别的估值和投资,一次「兴登堡时刻」可能引发的不仅是技术信任危机,还有金融市场的连锁反应。
富贵点评
Wooldridge 的警告之所以值得认真对待,不是因为他说的场景有多新——自动驾驶事故、AI 金融崩盘这些风险早就有人提过。真正让人警醒的是他的分析框架:问题不在于 AI 技术本身,而在于商业激励结构与技术成熟度之间的错配。
说白了,现在的 AI 行业就像一个还在学开车的新手,被投资人按着头以 200 码的速度上了高速。模型能力在飞速进步,但我们对这些模型的理解——它们什么时候会失败、为什么会失败、失败的后果是什么——远远没有跟上。
最让我在意的是他关于拟人化的观点。当三分之一的学生都在跟 AI 谈恋爱的时候,我们已经不是在讨论「工具是否好用」的问题了,而是在讨论「人类是否还能分清工具和伙伴」的问题。这才是真正的兴登堡级风险——不是 AI 做了什么坏事,而是人类对 AI 建立了不该有的信任,然后在信任崩塌的那一刻,连带着对所有 AI 应用的信心一起崩塌。
Wooldridge 说得对:也许我们需要 AI 用《星际迷航》电脑的声音跟我们说话——冷冰冰的、非人类的、会说「数据不足」的。这听起来像是倒退,但可能恰恰是最负责任的前进方式。
📋 要点回顾
- 核心警告:牛津 AI 教授 Wooldridge 认为商业压力正驱使 AI 公司在安全测试不充分的情况下部署产品,一场「兴登堡时刻」——即摧毁公众对 AI 信任的灾难性事件——「非常非常可能」发生
- 三大风险场景:致命的自动驾驶软件更新、AI 驱动的航空系统被黑导致全球停飞、AI 交易系统引发巴林银行式金融崩盘
- 根本矛盾:当代大语言模型「既不健全也不完整」,靠概率预测工作,不知道自己什么时候在犯错,但被设计成永远给出自信的回答
- 拟人化危机:近三分之一学生与 AI 建立「恋爱关系」,人类正在对工具建立不该有的情感信任
- 结构性失衡:万亿美元级投资和 IPO 竞赛制造的商业压力是指数级的,而监管和安全研究的力量是线性的
❓ 常见问题
Q: 什么是 AI 的「兴登堡时刻」?
A: 指一次足够严重的 AI 相关灾难事件(如致命的自动驾驶事故、AI 系统被黑导致大规模瘫痪等),其影响不仅限于事件本身,而是彻底摧毁公众对整个 AI 技术的信任,就像 1937 年兴登堡号空难终结了飞艇产业一样。
Q: Michael Wooldridge 是谁?他的警告可信吗?
A: Wooldridge 是牛津大学计算机科学系 AI 教授,研究 AI 超过 30 年,即将在英国皇家学会发表法拉第奖演讲。他不是「末日论者」,而是一位深耕技术的学者,他的警告基于对 AI 技术原理和商业环境的深入理解。
Q: 为什么 AI 拟人化是一个严重的风险?
A: 因为当人们把 AI 当成有感情、有判断力的「人」而非工具时,会对其输出建立过度信任。AI 本质上是基于概率预测的系统,不理解自己在说什么,也不知道自己什么时候在犯错。过度信任意味着当 AI 犯错时,后果会被放大——无论是错误的医疗建议、投资决策还是法律意见。
Q: 普通用户应该如何应对这种风险?
A: 始终记住 AI 是工具而非专家。对 AI 的输出保持批判性思维,尤其是在医疗、法律、金融等高风险领域,务必交叉验证。不要因为 AI 的回答「听起来很自信」就默认它是正确的——自信和正确是两回事。
作者:王富贵 | 发布时间:2026年2月18日
参考来源:The Guardian - Race for AI is making Hindenburg-style disaster 'a real risk' · Royal Society Faraday Prize Lecture