cd2.cn
首页 / 大模型 / 正文
大模型 Geoffrey Hinton AI安全 超级智能

AI教父Hinton再发警告:安全研究投入仅1%,4.8万亿美元市场狂奔无方向盘

2026-04-28 19:00 0.0k 阅读 MARKDOWN
查看同分类
摘要

在2026年世界数字大会上,AI教父Hinton指出全球AI研发中仅有1%的资源投向安全,而市场预计2033年将达4.8万亿美元。他批评AGI术语是误导,认为真正的威胁来自超级智能,并警示人类可能失去对AI的控制。同期数据揭露发达国家AI采用速度是发展中国家的两倍,数字鸿沟加剧。

当78岁的Geoffrey Hinton面对会场几百位代表说出“他们想要一辆没有方向盘的超级快车”时,整个房间安静了几秒。这位2024年诺贝尔物理学奖得主、被全球尊称为“AI教父”的老人,在2026年世界数字大会上再次拉响警报,直指当前AI发展的核心悖论:人类正以极限速度打造史上最强大的技术,却几乎完全忽略了它的安全边界。

Hinton用一组数据将这种失衡具象化:2023年全球AI市场规模为1890亿美元,联合国贸发会议预测到2033年将膨胀至4.8万亿美元——十年间从零长出一个比日本GDP还大的经济体。然而,这笔海量资金几乎全部流向更大的模型和更多的算力。至于AI安全研究,他在发言中无奈地指出,大概只占全球AI研发投入的1%。“这简直是疯了。”他直言。

坐在他旁边的Terry Sejnowski——同样因玻尔兹曼机贡献获奖的计算神经科学先驱——立刻补了一句:“你开过一辆没有刹车的车吗?下坡的时候你就知道有多惨了。但更惨的是,我们连方向盘都没有。”二人的对谈很快演变成一场对AI产业现状的尖锐审视。

从玻尔兹曼机到警示:一次颁奖变末日预言

这场大会原本的主题是“AI与社会发展”,并为Hinton和Sejnowski颁发奖项,表彰他们在1980年代发明玻尔兹曼机。颁奖人微软语音识别专家李登自己就是该技术路线的受益者。前半段对话充满学术温情:两人回忆起在罗切斯特的一次会议上,如何将Hopfield网络与模拟退火结合,催生出概率性神经网络的“晶化瞬间”。Hinton至今仍觉得玻尔兹曼机比反向传播更优雅,“它是一个好得多的想法,只是不太好用”。Sejnowski笑着附和:“它在生成式AI流行之前几十年,就已经是生成式神经网络了。”

然而,当李登将话题引向AGI(通用人工智能)和社会风险时,Hinton立刻切换了模式。他毫不客气地评价:“AGI是一个愚蠢的术语。”在Hinton看来,这个词假定智能是单维度的,像温度计一样线性增长,但实际智能高度多维,AI相对于人类的能力呈锯齿状:在通识知识上早已超越人类,某些推理任务却仍落后。因此,“不存在一个点让AI等于人类”。他主张真正有意义的术语是“超级智能”——在几乎所有智力任务上超越人类的系统,而这个系统“正在到来”。

在场官员随即追问:当超级智能出现时,人类还能保持有意义的控制吗?Hinton的回答坦诚而沉重:“我们不知道能不能和超级智能AI共存。”他说就好像母亲与婴儿:自然界中唯一远比自己聪明的个体愿意照顾较弱个体的例子。但AI不是我们的孩子。他警告,现在人类正处于建造超级智能的紧要节点,却只有1%的工作在研究如何安全地实现它,99%都在让模型更聪明。“这简直是疯了。”他重复道。

烟草与石棉的警示:AI风险的三张面孔

Hinton将AI风险分为三类。第一类是有人故意用AI作恶:制造深度伪造破坏民主、合成致命病毒发动大流行、实施网络攻击。第二类是为了赚钱而产生的副作用:比如用AI生成非法图像,或者推荐算法不断推送极端内容,最终“撕裂社会”。第三类则是AI自主接管的存在性威胁。

他特别指出,前两类风险更难通过国际合作解决。各国在嘴上说要合作,实际却在相互攻击。他用烟草和石棉作类比:发达国家在本国引入法规保护公民,却继续将这些有害产品卖往第三世界国家。同样,即使AI研发国制定了正确法规,它们也可能将危险AI销往他国,在那里制造不受约束的灾难——太阳底下无新鲜事。

关于大语言模型(LLM)是否通向超级智能的争论,Hinton也给出了回应。前同事Yann LeCun曾称LLM是通往超级智能的“死胡同”。Hinton将其拆成两个问题:哲学上,一个仅靠预测下一个词的系统能否理解空间?答案令人惊讶——能。但这种方式效率极低;如果有多模态输入,比如摄像头和物理操控,理解空间和物理常识的效率会高得多。因此在工程上,纯语言模型并非最优路径,但在哲学上它并非死胡同。

4.8万亿美元的市场割裂:谁在踩油门谁被甩下

大会暴露的另一道裂痕是分配危机。联合国贸发会议代理秘书长Pedro Manuel Moreno点破:AI的建造能力和规则制定权集中在极少数经济体和企业手中。国际电信联盟秘书长Doreen Bogdan-Martin给出的对比更刺眼:发达国家采纳AI的速度几乎是发展中国家的两倍。如果不解决这一问题,将演变成“第二次大分流”——造AI的国家与只能消费AI的国家之间鸿沟正以肉眼可见的速度扩大。4.8万亿美元的市场中,基础设施、投资、人才全部聚集在北半球少数节点,其他国家甚至无权参与规则设计。

把时间线拉长,Hinton的这场对话其实是他三年吹哨行动的集大成。2023年从谷歌离职时他说“后悔毕生工作”,2024年领奖台呼吁AI安全,2025年反复强调监管紧迫性,到2026年措辞更加具体:监管不是刹车的比喻错误,它应该是方向盘。

这位78岁老人身上并存着两个世界:他能在谈论完AI生存威胁后,立刻切回受限玻尔兹曼机的贝叶斯推理是否优雅,当前图像生成模型为什么只用了醒-睡算法的一半。正是这种对技术本质的深刻理解,让他的警告格外有分量——这是亲手造出AI的人说出的恐惧。而那辆油门踩到底、引擎轰鸣的车,方向盘是否存在,将取决于未来几年政府、企业与科学家是否愿意共同握住它。

标签 # Geoffrey Hinton # AI安全 # 超级智能 # 玻尔兹曼机 # 大模型

相关文章

浏览更多