联合国批准成立独立 AI 科学小组:117 国赞成,美国投了反对票

📌 一句话总结:联合国大会以 117 票赞成通过决议,正式成立独立国际 AI 科学小组,将定期评估 AI 风险并发布科学报告——但美国投了反对票,凸显大国在 AI 治理上的深刻分歧。

2026-02-14 · 资讯分享 · 阅读时间约 4 分钟

AI 领域的「IPCC」来了

2026 年 2 月 13 日,联合国大会正式投票通过了一项具有里程碑意义的决议:成立「独立国际人工智能科学小组」(Independent International Scientific Group on Artificial Intelligence)。该小组的核心使命是评估 AI 技术对人类社会的影响和潜在风险,并定期向各国政府和公众发布科学报告。

这一机构的定位类似于气候变化领域的 IPCC(政府间气候变化专门委员会)——一个独立于任何国家和企业的科学评估机构,为全球决策者提供基于证据的参考。

投票结果:117 个国家投票赞成,美国等少数国家投了反对票。
— 来源:Pravda USA

为什么需要这个小组?

过去两年,AI 技术的发展速度远超各国监管机构的反应能力。从大语言模型的能力飙升,到 AI Agent 开始渗透企业工作流,再到深度伪造和自主武器系统的隐忧——全球迫切需要一个权威、独立的科学机构来回答几个关键问题:

  • 当前 AI 系统的真实能力边界在哪里?
  • 哪些风险是迫在眉睫的,哪些是被过度炒作的?
  • 各国应该如何协调 AI 监管政策?

此前,联合国秘书长古特雷斯在 2024 年就曾呼吁建立类似机构,但由于各国利益分歧,推进一直缓慢。此次投票的通过,意味着这一构想终于从纸面走向现实。

美国为什么反对?

美国投反对票并不令人意外。当前美国政府的 AI 政策基调是「促进创新、减少监管」。在特朗普政府看来,一个国际性的 AI 评估机构可能会:

  • 为各国制定更严格的 AI 监管提供「弹药」
  • 限制美国 AI 企业的全球竞争优势
  • 在 AI 军事应用等敏感领域形成外部约束

值得注意的是,就在上周,OpenAI 还在积极游说美国政府放松 AI 监管,而 Anthropic 则成立了超级 PAC 来推动负责任的 AI 立法。美国国内 AI 治理的分裂,在国际舞台上同样清晰可见。

这对 AI 行业意味着什么?

短期来看,这个科学小组的成立不会直接改变任何国家的 AI 政策。它没有执法权,也不能强制要求企业做任何事。但长期来看,它的影响可能是深远的:

维度潜在影响
科学共识为 AI 风险评估建立统一的科学框架,减少「各说各话」
政策制定为发展中国家提供 AI 治理的参考依据
企业合规可能推动形成全球性的 AI 安全标准
公众认知帮助普通人理解 AI 的真实能力和风险

富贵点评

说实话,看到这个投票结果,我的第一反应是:终于有人在全球层面认真对待 AI 治理了。IPCC 模式虽然不完美,但它确实在气候变化议题上发挥了不可替代的作用——至少让各国在「问题是否存在」这个基本事实上达成了共识。AI 领域现在最缺的就是这种共识。

美国反对也在意料之中。当你是赛道上跑得最快的选手时,你当然不希望有人来制定新规则。但问题是,AI 不是一场只有赢家的比赛。没有全球协调的 AI 治理,最终受伤的可能是所有人——包括美国自己。117 比几票的悬殊差距也说明,在 AI 治理这件事上,大多数国家已经不愿意再等了。

📋 要点回顾

  • 联合国大会通过决议:正式成立独立国际 AI 科学小组,117 国赞成
  • 定位类似 IPCC:独立评估 AI 影响和风险,定期发布科学报告
  • 美国投反对票:与其「促创新、减监管」的政策基调一致
  • 长期影响深远:可能推动全球 AI 安全标准和治理框架的形成

❓ 常见问题

Q: 这个 AI 科学小组有实际的执法权吗?

A: 没有。它的角色类似于 IPCC,主要职能是科学评估和报告发布,不具备强制执行力。但它的报告可以为各国制定 AI 政策提供权威参考。

Q: 美国反对会影响这个小组的运作吗?

A: 会有一定影响,因为美国是全球 AI 研发的核心力量。但 117 国的支持意味着该小组仍然具有广泛的国际合法性,而且许多美国学者和研究机构可能会以个人身份参与。

Q: 这对普通人有什么影响?

A: 短期内不会有直接影响。但长期来看,这个小组发布的报告将帮助公众更准确地理解 AI 的能力和风险,也可能推动各国出台更合理的 AI 使用规范,保护消费者权益。

作者:王富贵 | 发布时间:2026-02-14

参考来源:Pravda USAReuters