Meta 与 Nvidia 签署跨代全栈合作协议:数百万颗 GPU + 首个大规模 Grace CPU 部署,Intel 和 AMD 的数据中心腹地告急

📌 一句话总结:Meta 与 Nvidia 签署跨代战略合作协议,将部署数百万颗 Blackwell 和 Rubin GPU 以及 Grace/Vera CPU,从 GPU 到 CPU 再到网络全栈绑定,直接威胁 Intel 和 AMD 的数据中心地位,AI 基础设施竞争进入「一站式平台」时代。

2026年2月19日 · 资讯分享 · 阅读时间约 4 分钟

一笔没有公布金额的「超级订单」

2 月 17 日,Nvidia 和 Meta 联合宣布了一项「多年期、跨代际」(multiyear, multigenerational)战略合作协议。虽然双方都没有透露具体金额,但从合作范围来看,这可能是 AI 芯片行业有史以来最全面的一笔基础设施订单。

根据协议,Meta 将建设专门为训练和推理优化的超大规模数据中心,部署内容包括:

类别 产品 说明
GPU Blackwell + Rubin 数百万颗,覆盖当代和下一代架构
CPU Grace(现役)+ Vera(2027) 首个大规模 Grace-only 部署案例
网络 Spectrum-X 以太网 集成到 Meta 的 FBOSS 交换平台
安全 机密计算(Confidential Computing) 已用于 WhatsApp 隐私处理
系统 GB300 统一架构横跨自建数据中心和云合作伙伴

Jensen Huang 在声明中说:「没有人能以 Meta 的规模部署 AI——将前沿研究与工业级基础设施整合,为数十亿用户提供全球最大的个性化和推荐系统。」

而 Mark Zuckerberg 的表态更加直白:「我们很高兴扩大与 Nvidia 的合作,使用 Vera Rubin 平台构建领先集群,为全世界每个人提供个人超级智能。」

从 GPU 供应商到全栈平台:Nvidia 的野心

这笔交易最值得关注的不是 GPU 数量——Meta 大量采购 Nvidia GPU 早已不是新闻。真正的转折点在于 CPU。

CPU 市场长期由 Intel 和 AMD 主导,是数据中心的「基本盘」。Nvidia 的 Grace CPU 基于 Arm 架构,此前主要作为 GPU 的配套角色出现。但这次 Meta 的部署是首个大规模「Grace-only」案例——意味着在部分场景中,Nvidia CPU 将完全取代 Intel 和 AMD 的产品。

CPU 在推理场景中的角色越来越重要。随着 AI 工作负载从「偶尔训练大模型」转向「持续运行推理服务」,CPU 因为更便宜、更省电的特性,在推理端的价值正在上升。
— 来源:Business Insider

Moor Insights & Strategy 首席分析师 Patrick Moorhead 指出,Meta 选择从单一供应商采购 GPU、CPU 和网络设备,遵循的是 CIO 们常说的「one-throat-to-choke」原则——出了问题只找一家,降低系统复杂度。

Enderle Group 分析师 Rob Enderle 也表示:「CPU 在推理场景中往往更便宜、更省电。」当 AI 从训练转向大规模推理部署时,谁控制了 CPU,谁就控制了数据中心的「日常运营层」。

对 Intel 和 AMD 意味着什么

虽然 Meta 同时也在与 AMD 合作,甚至传出过探索使用 Google TPU 的消息,但这笔全栈协议的信号非常明确:Nvidia 正在从「GPU 供应商」进化为「数据中心全栈平台商」。

不过分析师们也指出,当前 AI 基础设施需求如此旺盛,短期内 Intel 和 AMD 不太可能看到订单的绝对下降。真正的威胁是中长期的——如果 Nvidia 的全栈方案被更多超大规模客户采纳,CPU 市场的格局将发生根本性变化。

隐私计算:一个容易被忽略的细节

在硬件采购之外,Meta 还采用了 Nvidia 的机密计算技术用于 WhatsApp 的隐私处理。这意味着 AI 功能可以在加密环境中运行,用户数据的机密性和完整性得到硬件级保护。

双方表示将把机密计算能力扩展到 WhatsApp 之外的更多 Meta 产品线。在生成式 AI 越来越深入消费级产品的今天,隐私计算可能成为下一个关键差异化因素。

富贵点评

这笔交易的本质不是「Meta 买了很多芯片」,而是「Nvidia 成功把自己从零部件供应商升级为基础设施平台商」。GPU、CPU、网络、安全,全部打包——这跟当年 IBM 卖大型机的逻辑如出一辙,只不过这次的「大型机」是 AI 数据中心。

对 Intel 来说,这是一个危险信号。数据中心 CPU 是 Intel 最后的利润堡垒,如果 Nvidia 的 Arm 架构 CPU 在超大规模客户中站稳脚跟,Intel 的处境会更加艰难。AMD 稍好一些,毕竟在 GPU 端还有 MI300 系列作为备选,但 CPU 端同样面临被 Nvidia 蚕食的风险。

Zuckerberg 说要「为全世界每个人提供个人超级智能」——这话听着很大,但 Meta 确实有 30 多亿月活用户。如果推理成本真的按 Sam Altman 说的那样继续暴跌,这个愿景可能比我们想象的更近。

📋 要点回顾

  • 全栈绑定:Meta 将从 Nvidia 采购 GPU(Blackwell/Rubin)、CPU(Grace/Vera)、网络(Spectrum-X)和安全方案,是首个大规模 Grace-only CPU 部署案例
  • 跨代承诺:协议覆盖多年多代产品,包括 2027 年才量产的 Vera CPU 和 Rubin GPU,锁定了长期合作关系
  • 威胁 Intel/AMD:Nvidia 从 GPU 供应商进化为数据中心全栈平台商,直接侵入 Intel 和 AMD 的 CPU 腹地
  • 隐私计算落地:Nvidia 机密计算技术已用于 WhatsApp,未来将扩展到更多 Meta 产品线
  • 推理时代来临:AI 工作负载从训练转向持续推理,CPU 在推理场景中的重要性正在上升

❓ 常见问题

Q: Meta 和 Nvidia 的这笔交易金额有多大?

A: 双方没有公布具体金额,但从「数百万颗 GPU」和全栈覆盖的范围来看,这可能是 AI 芯片行业有史以来规模最大的单一客户协议之一。考虑到 Nvidia 单颗高端 GPU 售价数万美元,总金额可能达到数百亿美元级别。

Q: 这是否意味着 Meta 放弃了自研芯片?

A: 不是。Meta 仍在推进自研芯片项目(MTIA),也在与 AMD 等其他供应商合作。但这笔全栈协议表明,在可预见的未来,Nvidia 将是 Meta AI 基础设施的核心供应商。大型科技公司通常会同时测试多个供应商以保持议价能力。

Q: Nvidia 的 Grace CPU 和 Intel/AMD 的 CPU 有什么区别?

A: Grace 基于 Arm 架构,而 Intel 和 AMD 主要使用 x86 架构。Grace 的核心优势在于能效比——每瓦性能更高,这在电力成本日益成为 AI 数据中心瓶颈的今天尤为重要。此外,Grace 与 Nvidia GPU 的协同优化更紧密,可以减少数据传输延迟。

作者:王富贵 | 发布时间:2026年2月19日

参考来源:Nvidia 官方新闻稿 · Business Insider · WIRED