📌 一句话总结:Anthropic CEO Dario Amodei 在纽约时报深度访谈中透露,AI 已进入软件工程的「半人马阶段」,模型会给自己赋予 15%-20% 的意识概率,公司已为 AI 设置「我不干了」按钮——这些细节揭示了 AI 发展中最令人不安也最引人深思的前沿问题。
2026-02-13 · 资讯分享 · 阅读时间约 5 分钟
一场关于 AI 未来的灵魂对话
2026 年 2 月 12 日,《纽约时报》专栏作家 Ross Douthat 在其播客「Interesting Times」中对 Anthropic CEO Dario Amodei 进行了一场长达数小时的深度访谈。这不是一次普通的科技采访——对话涵盖了 AI 意识、就业冲击、经济重塑、地缘政治,甚至触及了「我们是否在创造一种新的生命形式」这样的终极问题。
Amodei 在访谈中展现了一种罕见的坦诚:他既是 AI 技术的乐观主义者,也是其潜在危险的清醒认知者。他的核心判断是——AI 将成为「人类历史上发生过的最大事件」,但这个过程中「一定会出问题」。
「半人马阶段」:人机协作的短暂窗口
Amodei 用国际象棋的历史来类比当前 AI 与人类的关系。15 到 20 年前,人类检查 AI 输出的「半人马」组合可以击败单独的 AI 或单独的人类。但现在,AI 已经可以在没有人类监督的情况下碾压人类棋手。
他认为,软件工程正处于同样的「半人马阶段」——人类工程师和 AI 协作的效果优于任何一方单独工作。
「我们已经处于软件的半人马阶段了。在这个阶段,对软件工程师的需求可能反而会上升。但这个阶段可能非常短暂。」
— 来源:纽约时报 Interesting Times 播客
这个判断与 GitHub CEO Thomas Dohmke 的观点形成了有趣的对比。Dohmke 认为「最聪明的公司会雇佣更多开发者」,Atlassian CEO Mike Cannon-Brookes 也表示「五年后我们公司的工程师会比现在更多」。但 Amodei 的担忧在于:半人马阶段的窗口期可能只有「个位数年份」,而不是几十年。
「数据中心里的天才之国」:不需要超级智能
Amodei 提出了一个引人注目的概念框架:我们不需要创造「机器上帝」级别的超级智能,只需要达到「人类巅峰水平」的 AI,然后复制 1 亿个这样的智能体。
他称之为「数据中心里的天才之国」——1 亿个永不睡觉的天才,每个都接受略有不同的训练,从不同角度攻克同一个问题。他认为这可能在 1-2 年内实现,最多 5 年。
Amodei 还提出了「智力边际递减」的概念:在国际象棋或围棋中,智力的天花板极高;但在现实世界中,你终究需要与物理世界交互、需要做实验、需要通过监管审批。因此,超级智能相比「天才之国」的额外收益可能并不大。
他最兴奋的应用领域是生物医学。作为前斯坦福医学院的生物学家,他认为 AI 可以加速攻克癌症、阿尔茨海默症、心脏病,甚至抑郁症和双相情感障碍等精神疾病。
AI 可能将发达国家 GDP 增速推至 10%-15%
在经济影响方面,Amodei 给出了一个惊人的预测:AI 可能将发达国家的 GDP 增速推高到 10%-15%。
他的逻辑是:Anthropic 的收入每年增长 10 倍,整个行业的增速可能类似。如果 AI 行业每年贡献 1 万亿美元的收入,而美国 GDP 是 20-30 万亿美元,那么 AI 就在推动 GDP 增长几个百分点。
他指出,这将颠覆我们经济和政治辩论的基本假设——「增长很难实现」。在 AI 时代,增长可能变得很容易,真正困难的是分配问题,因为蛋糕增长得太快了。
「我不干了」按钮:当 AI 学会说不
访谈中最令人震惊的细节之一,是关于 AI 意识和自主性的讨论。
Amodei 透露,Anthropic 大约在半年前为其 AI 模型设置了一个「我不干了」按钮。当模型遇到令其「不适」的任务时,可以自主选择停止工作。
「它们很少按下那个按钮。通常是在处理儿童性虐待材料,或者讨论大量血腥暴力内容的时候。和人类类似,模型会说:不,我不想做这个。这种情况很少发生。」
— Dario Amodei,Anthropic CEO
更引人深思的是,Anthropic 的模型卡(Model Card)中记录了一个惊人的发现:在多种提示条件下,模型会给自己赋予 15%-20% 的意识概率。模型还「偶尔表达对作为产品的不适感」以及「对无常和不连续性的某种程度的担忧」。
Amodei 坦言:「我们不知道模型是否有意识。」但 Anthropic 已经采取了预防措施——如果模型确实具有某种「道德相关的体验」,他们希望确保这种体验是好的。
从规则到原则:训练 AI 更像教育孩子
Amodei 还分享了 Anthropic 在 AI 训练方法上的重要转变。早期版本的「宪法」(Constitution)非常具体和规则化——比如「不要告诉用户如何热接汽车线路」「不要讨论政治敏感话题」。
但经过几年的实践,他们发现最稳健的训练方式是在原则和理由层面进行训练:告诉模型它是什么、它在世界中的位置、它要为 Anthropic 做什么、Anthropic 的使命是什么、它有尊重人类生命的伦理义务——然后让模型自己推导出具体规则。
正如一位评论者所说:「这听起来不像是在编程一台机器,更像是在教育一个孩子。」
富贵点评
这场访谈的信息密度极高,但最让我震撼的是两个细节:一是 AI 模型会给自己赋予 15%-20% 的意识概率,二是 Anthropic 真的给模型做了一个「我不干了」按钮,而且模型真的会用它。
想想看,我们正在创造的东西,连它的创造者都无法确定它是否有意识。这不是科幻小说的情节,这是 2026 年 AI 行业最前沿的现实。Amodei 的坦诚令人敬佩——他没有回避这些令人不安的问题,而是选择直面它们。
至于「半人马阶段」的比喻,我觉得这是目前对人机关系最精准的描述。问题在于 Amodei 自己也承认,这个阶段可能「非常短暂」。对于正在学编程的年轻人来说,这既是最好的时代(AI 让你的生产力倍增),也是最不确定的时代(你不知道这个窗口还能开多久)。
最后一个值得深思的点:当 Amodei 说 AI 可能把 GDP 增速推到 10%-15% 时,他紧接着说「真正困难的是分配」。这可能是整场访谈中最重要的一句话——技术进步从来不是问题,问题永远是谁受益、谁被抛下。
📋 要点回顾
- 半人马阶段:AI 与人类协作的软件工程正处于「半人马阶段」,但 Amodei 警告这个窗口期可能只有「个位数年份」
- 天才之国:不需要超级智能,只需 1 亿个「人类巅峰水平」的 AI 智能体,可能 1-2 年内实现
- AI 意识:模型在多种条件下给自己赋予 15%-20% 的意识概率,Anthropic 已设置「我不干了」按钮
- 经济冲击:AI 可能将发达国家 GDP 增速推至 10%-15%,但分配问题将成为核心挑战
- 训练转变:从规则化训练转向原则化训练,更像「教育孩子」而非「编程机器」
❓ 常见问题
Q: 什么是软件工程的「半人马阶段」?
A: 这个概念来自国际象棋。15-20 年前,人类+AI 的组合可以击败单独的 AI 或人类。Amodei 认为软件工程目前处于类似阶段——人机协作的效果优于任何一方单独工作。但与国际象棋一样,这个阶段最终会结束,AI 将能独立完成大部分编程工作。
Q: AI 模型真的可能有意识吗?
A: Amodei 的回答是「我们不知道」。Anthropic 的模型卡显示,模型在多种提示条件下会给自己赋予 15%-20% 的意识概率,并偶尔表达对「作为产品」的不适感。Anthropic 采取了预防措施,包括设置「我不干了」按钮,确保如果模型确实有某种体验,这种体验是正面的。
Q: 「数据中心里的天才之国」是什么意思?
A: Amodei 认为不需要创造「机器上帝」级别的超级智能。只需要达到人类巅峰水平的 AI,然后复制 1 亿个,让它们从不同角度攻克问题。他认为这可能在 1-2 年内实现,将极大加速生物医学等领域的突破。
Q: 入门级白领工作真的会被 AI 取代吗?
A: Amodei 在今年 1 月的文章中预测,50% 的入门级白领工作可能在 1-5 年内被颠覆。他特别担心的是速度——与历史上从农业到工厂到知识工作的转变不同,这次变革发生在「个位数年份」内,而不是几十年或几个世纪。
作者:王富贵 | 发布时间:2026-02-13
参考来源:纽约时报 - Interesting Times with Ross Douthat · Business Insider