NVIDIA 宣布推出适用于巨型AI 和高性能计算工作负载的 CPU

by 英伟达中国
  • “Grace”CPU采用高能效的Arm核心,针对训练巨型AI模型的系统,实现了10倍的性能提升
  • 瑞士超级计算机中心和美国能源部洛斯阿拉莫斯国家实验室首次建造搭载NVIDIA CPU的超级计算机

加利福尼亚州圣克拉拉市 — GTC — 2021 年 4 月12 日— NVIDIA 发布其首款基于 Arm 架构的数据中心 CPU 处理器,在最复杂的 AI和高性能计算工作负载下,可实现 10 倍于当今最快服务器的超高性能。

NVIDIA Grace™ CPU 是超过10,000个工程年的成果,专为满足全球最先进应用的计算要求而设计—— 这些应用包括自然语言处理推荐系统AI 超级计算 —— 其所进行的海量数据分析需要超高速计算性能和大容量内存。这款产品将高能效 Arm CPU 核心与创新的低功耗内存子系统相结合,以高能效提供高性能。

NVIDIA 创始人兼首席执行官黄仁勋表示:“前沿的AI和数据科学正推动当今的计算机架构超越其极限,以处理规模难以想象的海量数据。NVIDIA 借助 Arm授权的 IP设计了 Grace,这是一款专为大规模AI和HPC设计的CPU。与GPU和DPU一起, Grace为我们提供了计算的第三种基础技术,以及为了推进AI发展重构数据中心的能力。NVIDIA现在是一家拥有三种芯片的公司。”

Grace是高度专业化的处理器,工作负载面向例如训练具有超过1万亿个参数的新一代NLP模型等。当与NVIDIA GPU紧密耦合时,搭载Grace CPU的系统速度比如今基于 NVIDIA DGX ™打造的最先进的系统(在 x86 CPU 上运行)快 10 倍。

在绝大多数数据中心由现有的CPU提供服务的同时,Grace(以美国计算机编程先驱Grace Hopper的名字命名)将为计算的细分市场提供服务。

瑞士国家超级计算机中心 (CSCS) 和美国能源部洛斯阿拉莫斯国家实验室 (Los Alamos National Laboratory) 率先宣布计划构建搭载Grace的超级计算机,以支持国家科学研究工作。

NVIDIA推出Grace的背景是数据量和 AI 模型规模呈指数级增长。如今最大的 AI 模型包含数十亿个参数,并且参数数量每两个半月就会翻一番。训练这些模型需要一个与 GPU 紧密耦合的新 CPU,以消除系统瓶颈。

NVIDIA 利用 Arm 数据中心架构极大的灵活性构建了 Grace。通过推出新的服务器级 CPU,NVIDIA正在推进在AI和HPC领域中技术多样性的目标。在这些领域,更多选择是实现解决全球最迫切问题所需创新的关键。

Arm 首席执行官 Simon Segars 表示:“作为全球授权范围最广的处理器架构,Arm 每天正在以不可思议的新方式推动创新。NVIDIA 推出Grace 数据中心 CPU 明确表明Arm的授权模式如何促进一项重要创新,这将进一步支持世界各地 AI 研究人员和科学家们非凡的工作。”

Grace 的首批使用者推动科学和 AI 的极限发展

CSCS 和洛斯阿拉莫斯国家实验室计划将于 2023 年推出由慧与构建的、搭载Grace的超级计算机。

CSCS 总监 Thomas Schulthess教授表示:“利用 NVIDIA 全新的 Grace CPU,使得我们能将 AI 技术和传统的超级计算融合在一起,来解决计算科学领域一些最难的问题。我们很高兴能够向我们的瑞士和全球用户提供这款全新 NVIDIA CPU,用于处理分析海量和复杂的科学数据集。”

洛斯阿拉莫斯国家实验室主任 Thom Mason 表示:“通过创新地平衡内存带宽和容量,新一代系统将重塑我们机构的计算策略。凭借 NVIDIA 全新 Grace CPU,我们可以在比以前更大的数据集上完成高逼真度3D仿真和分析,从而进行先进的科学研究工作。”

实现性能突破

Grace的强大性能基于第四代 NVIDIA NVLink® 互联技术,该技术在Grace和 NVIDIA GPU 之间提供创纪录的 900 GB/s 连接速度,使总带宽比当今领先的服务器高 30 倍。

Grace 还将利用创新的 LPDDR5x 内存子系统,该子系统的带宽是 DDR4 内存的两倍,能效达 DDR4 的 10 倍。此外,新架构提供单一内存地址空间的缓存一致性,将系统和 HBM GPU 内存相结合,以简化可编程性。

Grace将获得 NVIDIA HPC软件开发套件以及全套 CUDA® 和 CUDA-X™ 库的支持,可以对 2,000 多个 GPU 应用程序加速,使得应对全球重大挑战的科学家和研究人员探索速度更快。

预计将于 2023 年初开始供货。

请关注 4 月 12 日至 16 日的在GTC21在线活动并免费注册,了解更多信息。