OpenAI 砸 560 万英镑加入英国 AI 对齐联盟:微软、Anthropic、AWS 等巨头联手,60 个项目横跨 8 国,2700 万英镑打造全球最大 AI 安全研究网络

📌 一句话总结:OpenAI 向英国 AI 安全研究所的「Alignment Project」注资 560 万英镑,联合微软、Anthropic、AWS 等组建全球最大 AI 对齐研究联盟,首批 60 个项目横跨 8 国,总资金池达 2700 万英镑。

2026年2月21日 · AI安全 · 阅读时间约 5 分钟

事件背景:AI 对齐为什么突然成了「必答题」

2 月 20 日,在印度新德里举办的 AI Impact Summit 闭幕之际,英国副首相 David Lammy 和 AI 部长 Kanishka Narayan 联合宣布:OpenAI 和微软正式加入英国 AI 安全研究所(AISI)主导的「Alignment Project」。

所谓 AI 对齐(Alignment),简单说就是确保 AI 系统按照人类意图行事,不会产生意外或有害行为。随着大语言模型能力飞速提升,对齐研究已经从学术圈的「选修课」变成了整个行业的「必修课」——如果模型越来越强但越来越不可控,后果不堪设想。

"只有当人们信任 AI,我们才能释放它的全部力量。信任是 AI 大规模采用的最大障碍,而对齐研究正是解决这个问题的关键。"
— 英国 AI 部长 Kanishka Narayan

资金与规模:从 1500 万到 2700 万英镑的跃升

Alignment Project 最初于 2025 年夏天启动时,资金池为 1500 万英镑。此次 OpenAI 一次性注入 560 万英镑(约 750 万美元),加上微软及其他合作伙伴的追加投入,总资金池已膨胀至 2700 万英镑(约 3630 万美元),几乎翻了一倍。

首批 60 个研究项目已获得资助,覆盖 8 个国家的研究团队。第二轮资助预计将于今年夏天开放申请。

指标 数据
总资金池 2700 万英镑(约 3630 万美元)
OpenAI 注资 560 万英镑(约 750 万美元)
首批资助项目 60 个
覆盖国家 8 个
联盟成员 12+ 家机构

联盟阵容:谁在这张牌桌上

这个联盟的成员名单本身就是一份「AI 安全领域的权力地图」:

企业方:OpenAI、微软、Anthropic、Amazon Web Services(AWS)

政府方:英国 AI 安全研究所(AISI)、加拿大高等研究院(CIFAR)、澳大利亚工业科学资源部 AI 安全研究所

学术与基金会:Schmidt Sciences、英国研究与创新署(UKRI)、高等研究与发明局(ARIA)、Safe AI Fund、Halcyon Futures、Sympatico Ventures、Renaissance Philanthropy

专家顾问委员会:图灵奖得主 Yoshua Bengio、卡内基梅隆大学教授 Zico Kolter、MIT 教授 Shafi Goldwasser、Andrea Lincoln 等。

值得注意的是,OpenAI 研究副总裁 Mia Glaese 在声明中特别强调了「独立性」的价值:

"最难的问题不会被任何一个组织单独解决——我们需要独立团队用不同的假设和方法来检验。我们对 Alignment Project 的支持是对内部对齐工作的补充,有助于构建一个更广泛的研究生态。"
— Mia Glaese,OpenAI 研究副总裁

项目做什么:不只是写论文

Alignment Project 不是一个纯学术项目。它提供三重支持:

1. 研究资助:直接拨款给全球研究团队,支持对齐领域的前沿探索。

2. 算力资源:为研究者提供计算基础设施访问权限——这在 GPU 紧缺的当下是极其稀缺的资源。

3. 学术指导:AISI 自身的顶级科学家为受资助项目提供持续的学术辅导。

英国政府预期,这些研究成果将加速安全 AI 系统的落地应用,涵盖生产力提升、医疗诊断加速、新就业岗位创造等领域。

大背景:AI 安全的「多边主义」时刻

这一消息的发布时间点耐人寻味。就在同一周:

美国国防部与 Anthropic 因 AI 安全底线问题发生公开摩擦,涉及一项 2 亿美元的军事 AI 试点项目。Anthropic 坚持其安全红线,而五角大楼希望扩大使用范围。

印度在同一场峰会上正式加入美国主导的「Pax Silica」联盟,全球 AI 供应链的阵营化趋势加速。

英国选择在这个节点推出一个「非对抗性」的多边安全合作框架,既拉拢了美国科技巨头,又保持了独立的研究定位,外交手腕相当老练。

富贵点评

说实话,2700 万英镑在 AI 领域的投资规模里算不上天文数字——OpenAI 自己正在谈的那轮融资就是 1000 亿美元级别的。但这个项目的价值不在钱多钱少,而在于它搭建了一个「多方参与、独立运作」的研究框架。

想想看:OpenAI、Anthropic、微软、AWS 这些平时在商业上打得头破血流的对手,在这个项目里坐到了同一张桌子上。图灵奖得主 Yoshua Bengio 担任顾问。8 个国家的研究团队同时推进。这种「竞争对手在安全问题上合作」的模式,可能比任何单一公司的内部安全团队都更有公信力。

英国在这件事上的定位也很聪明:不搞对抗性监管,不搞技术封锁,而是用「研究资助 + 算力支持 + 学术指导」的软实力把全球顶尖力量聚拢过来。在中美 AI 竞赛白热化的当下,英国正在悄悄把自己打造成 AI 安全领域的「瑞士」。

📋 要点回顾

  • 资金翻倍:OpenAI 注资 560 万英镑,Alignment Project 总资金池从 1500 万升至 2700 万英镑
  • 首批落地:60 个研究项目获得资助,覆盖 8 个国家,第二轮今夏开放
  • 巨头联手:OpenAI、微软、Anthropic、AWS 等商业竞争对手在安全领域罕见合作
  • 三重支持:项目提供研究资金、算力资源和学术指导,不只是「给钱了事」
  • 英国定位:通过非对抗性的多边合作框架,英国正在成为全球 AI 安全研究的枢纽

❓ 常见问题

Q: AI 对齐(Alignment)到底是什么意思?

A: AI 对齐是指确保 AI 系统按照人类的意图和价值观行事,不会产生意外、有害或不可控的行为。随着模型能力越来越强,对齐研究的重要性也在急剧上升——你不会希望一个比你聪明的系统不听你的话。

Q: 2700 万英镑够做什么?这个规模大吗?

A: 相比 AI 公司动辄数十亿美元的融资,2700 万英镑确实不算多。但对齐研究是基础科学性质的工作,不需要训练万亿参数的模型,更需要的是聪明的研究者和正确的方向。这笔钱足以支撑 60 个高质量研究项目,而且还提供算力和学术指导。

Q: 为什么 OpenAI 和 Anthropic 这些竞争对手愿意合作?

A: AI 安全是一个「公地」问题——如果任何一家公司的模型出了严重安全事故,整个行业都会受到冲击。合作做安全研究对所有人都有利,而且独立的第三方研究比任何公司的内部安全团队都更有公信力。这也是为什么英国政府主导的框架能把这些对手拉到一起。

作者:王富贵 | 发布时间:2026年2月21日

参考来源:英国政府官方公告 · GovCon Exec International · Capacity