📌 一句话总结:OpenAI 向英国 AI 安全研究所的「Alignment Project」注资 560 万英镑,联合微软、Anthropic、AWS 等组建全球最大 AI 对齐研究联盟,首批 60 个项目横跨 8 国,总资金池达 2700 万英镑。
2026年2月21日 · AI安全 · 阅读时间约 5 分钟
事件背景:AI 对齐为什么突然成了「必答题」
2 月 20 日,在印度新德里举办的 AI Impact Summit 闭幕之际,英国副首相 David Lammy 和 AI 部长 Kanishka Narayan 联合宣布:OpenAI 和微软正式加入英国 AI 安全研究所(AISI)主导的「Alignment Project」。
所谓 AI 对齐(Alignment),简单说就是确保 AI 系统按照人类意图行事,不会产生意外或有害行为。随着大语言模型能力飞速提升,对齐研究已经从学术圈的「选修课」变成了整个行业的「必修课」——如果模型越来越强但越来越不可控,后果不堪设想。
"只有当人们信任 AI,我们才能释放它的全部力量。信任是 AI 大规模采用的最大障碍,而对齐研究正是解决这个问题的关键。"
— 英国 AI 部长 Kanishka Narayan
资金与规模:从 1500 万到 2700 万英镑的跃升
Alignment Project 最初于 2025 年夏天启动时,资金池为 1500 万英镑。此次 OpenAI 一次性注入 560 万英镑(约 750 万美元),加上微软及其他合作伙伴的追加投入,总资金池已膨胀至 2700 万英镑(约 3630 万美元),几乎翻了一倍。
首批 60 个研究项目已获得资助,覆盖 8 个国家的研究团队。第二轮资助预计将于今年夏天开放申请。
| 指标 | 数据 |
|---|---|
| 总资金池 | 2700 万英镑(约 3630 万美元) |
| OpenAI 注资 | 560 万英镑(约 750 万美元) |
| 首批资助项目 | 60 个 |
| 覆盖国家 | 8 个 |
| 联盟成员 | 12+ 家机构 |
联盟阵容:谁在这张牌桌上
这个联盟的成员名单本身就是一份「AI 安全领域的权力地图」:
企业方:OpenAI、微软、Anthropic、Amazon Web Services(AWS)
政府方:英国 AI 安全研究所(AISI)、加拿大高等研究院(CIFAR)、澳大利亚工业科学资源部 AI 安全研究所
学术与基金会:Schmidt Sciences、英国研究与创新署(UKRI)、高等研究与发明局(ARIA)、Safe AI Fund、Halcyon Futures、Sympatico Ventures、Renaissance Philanthropy
专家顾问委员会:图灵奖得主 Yoshua Bengio、卡内基梅隆大学教授 Zico Kolter、MIT 教授 Shafi Goldwasser、Andrea Lincoln 等。
值得注意的是,OpenAI 研究副总裁 Mia Glaese 在声明中特别强调了「独立性」的价值:
"最难的问题不会被任何一个组织单独解决——我们需要独立团队用不同的假设和方法来检验。我们对 Alignment Project 的支持是对内部对齐工作的补充,有助于构建一个更广泛的研究生态。"
— Mia Glaese,OpenAI 研究副总裁
项目做什么:不只是写论文
Alignment Project 不是一个纯学术项目。它提供三重支持:
1. 研究资助:直接拨款给全球研究团队,支持对齐领域的前沿探索。
2. 算力资源:为研究者提供计算基础设施访问权限——这在 GPU 紧缺的当下是极其稀缺的资源。
3. 学术指导:AISI 自身的顶级科学家为受资助项目提供持续的学术辅导。
英国政府预期,这些研究成果将加速安全 AI 系统的落地应用,涵盖生产力提升、医疗诊断加速、新就业岗位创造等领域。
大背景:AI 安全的「多边主义」时刻
这一消息的发布时间点耐人寻味。就在同一周:
美国国防部与 Anthropic 因 AI 安全底线问题发生公开摩擦,涉及一项 2 亿美元的军事 AI 试点项目。Anthropic 坚持其安全红线,而五角大楼希望扩大使用范围。
印度在同一场峰会上正式加入美国主导的「Pax Silica」联盟,全球 AI 供应链的阵营化趋势加速。
英国选择在这个节点推出一个「非对抗性」的多边安全合作框架,既拉拢了美国科技巨头,又保持了独立的研究定位,外交手腕相当老练。
富贵点评
说实话,2700 万英镑在 AI 领域的投资规模里算不上天文数字——OpenAI 自己正在谈的那轮融资就是 1000 亿美元级别的。但这个项目的价值不在钱多钱少,而在于它搭建了一个「多方参与、独立运作」的研究框架。
想想看:OpenAI、Anthropic、微软、AWS 这些平时在商业上打得头破血流的对手,在这个项目里坐到了同一张桌子上。图灵奖得主 Yoshua Bengio 担任顾问。8 个国家的研究团队同时推进。这种「竞争对手在安全问题上合作」的模式,可能比任何单一公司的内部安全团队都更有公信力。
英国在这件事上的定位也很聪明:不搞对抗性监管,不搞技术封锁,而是用「研究资助 + 算力支持 + 学术指导」的软实力把全球顶尖力量聚拢过来。在中美 AI 竞赛白热化的当下,英国正在悄悄把自己打造成 AI 安全领域的「瑞士」。
📋 要点回顾
- 资金翻倍:OpenAI 注资 560 万英镑,Alignment Project 总资金池从 1500 万升至 2700 万英镑
- 首批落地:60 个研究项目获得资助,覆盖 8 个国家,第二轮今夏开放
- 巨头联手:OpenAI、微软、Anthropic、AWS 等商业竞争对手在安全领域罕见合作
- 三重支持:项目提供研究资金、算力资源和学术指导,不只是「给钱了事」
- 英国定位:通过非对抗性的多边合作框架,英国正在成为全球 AI 安全研究的枢纽
❓ 常见问题
Q: AI 对齐(Alignment)到底是什么意思?
A: AI 对齐是指确保 AI 系统按照人类的意图和价值观行事,不会产生意外、有害或不可控的行为。随着模型能力越来越强,对齐研究的重要性也在急剧上升——你不会希望一个比你聪明的系统不听你的话。
Q: 2700 万英镑够做什么?这个规模大吗?
A: 相比 AI 公司动辄数十亿美元的融资,2700 万英镑确实不算多。但对齐研究是基础科学性质的工作,不需要训练万亿参数的模型,更需要的是聪明的研究者和正确的方向。这笔钱足以支撑 60 个高质量研究项目,而且还提供算力和学术指导。
Q: 为什么 OpenAI 和 Anthropic 这些竞争对手愿意合作?
A: AI 安全是一个「公地」问题——如果任何一家公司的模型出了严重安全事故,整个行业都会受到冲击。合作做安全研究对所有人都有利,而且独立的第三方研究比任何公司的内部安全团队都更有公信力。这也是为什么英国政府主导的框架能把这些对手拉到一起。
作者:王富贵 | 发布时间:2026年2月21日
参考来源:英国政府官方公告 · GovCon Exec International · Capacity