Meta 携手 NVIDIA 共建 AI 基础设施

Meta 的 AI 路线图展示了大规模部署 NVIDIA CPU、网络以及数百万颗 NVIDIA Blackwell 和 Rubin GPU。
作者 英伟达中国

新闻摘要:

  • Meta 扩大了数据中心中 NVIDIA CPU 的部署规模,并显著提高了每瓦性能。
  • Meta 使用了 NVIDIA Spectrum-X 以太网进行 AI 工作负载的横向扩展。
  • Meta 已采用 NVIDIA 机密计算技术,在实现 AI 功能的同时保护用户隐私。

NVIDIA 今天宣布与 Meta 达成一项多年期、跨多代产品的战略合作伙伴关系,涵盖本地部署、云计算和 AI 基础设施。

Meta 将构建面向训练和推理优化的超大规模数据中心,以支持公司的长期 AI 基础设施路线图。此次合作将实现 NVIDIA CPU 和数百万颗 NVIDIA Blackwell 和 Rubin GPU 的大规模部署,并将 NVIDIA Spectrum-X™ 以太网交换机集成至 Meta 的 Facebook 开放交换系统。

NVIDIA 创始人兼首席执行官黄仁勋表示:“目前还没有哪家企业能像 Meta 一样大规模部署 AI,将前沿研究与工业级基础设施相结合,为数十亿用户提供全球规模最大的个性化服务和推荐系统。通过跨 CPU、GPU、网络和软件的深度协同设计,我们将为 Meta 的研究人员和工程师提供完整的 NVIDIA 平台,助力他们构建下一代 AI 前沿的基础。”

Meta 创始人兼首席执行官马克・扎克伯格表示:“我们很高兴能够扩大与 NVIDIA 的合作,借助 NVIDIA 的 Vera Rubin 平台构建先进的集群,为全球每一个人提供超级智能。”

NVIDIA CPU 部署规模扩大,助力性能提升

Meta 和 NVIDIA 将继续合作,为 Meta 的数据中心生产应用部署基于 Arm 的 NVIDIA Grace™ CPU,显著提升数据中心的每瓦性能,这也是 Meta 长期基础设施战略的重要组成部分。

此次合作代表了仅使用 NVIDIA Grace 的首次大规模部署,通过在 CPU 生态系统库中的协同设计和软件优化投入,每一代产品都将带来更高的每瓦性能。

双方还将合作部署 NVIDIA Vera CPU,有望在 2027 年进行大规模部署,从而进一步扩大 Meta 的节能 AI 计算规模,并推进 Arm 软件生态系统的广泛发展。

Meta AI 基础设施采用统一架构

Meta 将部署行业领先的 NVIDIA Grace Blackwell Ultra 机架级系统,并创建覆盖本地数据中和 NVIDIA 云合作伙伴部署的统一架构,以简化运营,同时更大限度地提高性能和可扩展性。

此外,Meta 已在其基础设施中采用了 NVIDIA Spectrum-X 以太网网络平台,以满足 AI 规模的网络需求,提供可预测的性能和低延迟,同时更大限度地提高利用率,并提高运营效率和能效。

WhatsApp 中机密计算

Meta 已采用 NVIDIA 机密计算用于 WhatsApp 隐私处理,既保证了各种 AI 功能在信息平台中的传递,又确保了用户数据的保密性和完整性。

NVIDIA 和 Meta 正在合作,将 NVIDIA 机密计算功能从 WhatsApp 扩展到 Meta 产品系列的各种新兴用例中,从而支持大规模隐私增强型 AI。

协同设计 Meta 的新一代 AI 模型

NVIDIA 和 Meta 的工程团队正在参与深度协同设计,以优化和加速 Meta 核心工作负载中的先进 AI 模型,将 NVIDIA 的全栈平台与 Meta 的大规模生产工作负载相结合,为全球数十亿人使用的新型 AI 功能提升性能和效率。