NVIDIA Blackwell Ultra DGX SuperPOD 为企业构建 AI 工厂提供开箱即用的 AI 超级计算机

• NVIDIA Blackwell Ultra 驱动的 DGX 系统为实现 AI 智能体实时响应提供超强 AI 推理能力。
• Equinix 率先推出 NVIDIA Instant AI Factory 服务,在支持 Blackwell 架构的设施中预配置空间,用于部署 DGX GB300 和 DGX B300 系统,以满足全球对 AI 基础设施日益增长的需求。
作者 英伟达中国

美国加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2025 年 3 月 18 日 ——NVIDIA 于今日宣布推出全球最先进的企业 AI 基础设施 —— 基于 NVIDIA Blackwell Ultra GPU 构建的 NVIDIA DGX SuperPOD™,为各行各业的企业提供 AI 工厂超级计算能力,以实现最先进的代理式 AI 推理。

企业可通过采用全新 NVIDIA DGX™ GB300NVIDIA DGX B300 系统,与 NVIDIA 网络技术相集成,部署开箱即用的 DGX SuperPOD AI 超级计算机。该解决方案提供 FP4 精度计算能力,可显著加速 AI 应用中的 token 生成效率。

AI 工厂为代理式 AI、生成式 AI 和物理 AI 工作负载提供专用基础设施,此类工作负载需要海量计算资源,才能为在生产环境中运行的应用提供 AI 预训练、后训练和测试阶段扩展功能

“AI正以光速推进,企业竞相构建 AI 工厂实现扩展,以满足推理 AI 和推理时扩展的处理需求,”NVIDIA创始人兼首席执行官黄仁勋表示。“NVIDIA Blackwell Ultra DGX SuperPOD为代理式和物理 AI 时代提供了开箱即用的 AI 超级计算。”

DGX GB300 系统采用 NVIDIA Grace Blackwell Ultra 超级芯片(搭载 36 个 NVIDIA Grace™ CPU 和 72 个 NVIDIA Blackwell Ultra GPU), 并采用机架级、液冷架构,专为实现高级推理模型的实时代理响应而设计。

风冷 NVIDIA DGX B300 系统采用 NVIDIA B300 NVL16 架构,助力全球各地的数据中心满足生成式和代理式 AI 应用的计算需求。

为了满足对先进的加速基础设施日益增长的需求,NVIDIA 还推出了 NVIDIA Instant AI Factory,这是一项基于 Blackwell Ultra 驱动的 NVIDIA DGX SuperPOD的托管服务。Equinix 将率先在其位于全球 45 个市场的预配置液冷或风冷 AI 就绪数据中心部署全新的 DGX GB300 和 DGX B300 系统。

搭载 DGX GB300 的 NVIDIA DGX SuperPOD 赋能AI 推理新纪元

搭载 DGX GB300 系统的 DGX SuperPOD 可扩展至数以万计的 NVIDIA Grace Blackwell Ultra 超级芯片—— 其通过 NVIDIA NVLink™NVIDIA Quantum-X800 InfiniBandNVIDIA Spectrum-X™ 以太网连接,为最为计算密集型的工作负载提供强大支持。

DGX GB300 系统的AI 性能是基于 NVIDIA Hopper™ 系统构建的 AI 工厂的 70 倍 ,并配备 38TB 的高速内存,能够在大规模环境下为具备多步骤推理的代理式AI和推理应用提供无与伦比的性能。

每个 DGX GB300 系统中均搭载 72 个 Grace Blackwell Ultra GPU,通过第五代 NVLink 技术连接,并通过 NVLink Switch 系统形成一个巨大的共享内存空间。

每台 DGX GB300 系统配备 72 块 NVIDIA ConnectX®-8 SuperNIC ,提供高达 800Gb/s 的网络速度,是上一代性能的两倍。18 块 NVIDIA BlueField®-3 DPU 与 NVIDIA Quantum-X800 InfiniBand 或 NVIDIA Spectrum-X 以太网组合,加速大规模 AI 数据中心的性能、效率和安全性。

DGX B300 系统加速每个数据中心的 AI 应用

NVIDIA DGX B300 系统是一个 AI 基础设施平台,旨在为每个数据中心提供高效的生成式 AI 和 AI 推理功能。

借由 NVIDIA Blackwell Ultra GPU 加速,DGX B300 系统与 Hopper 代产品相比 AI 推理性能提高了 11 倍,训练速度提升了 4 倍。

任一系统均提供 2.3TB 的 HBM3e 内存容量,并包括搭载 8 个 NVIDIA ConnectX-8 SuperNIC 和 2 个 BlueField-3 DPU 的先进网络。

NVIDIA 软件加速 AI 部署和开发

为助力企业实现对其基础设施管理和运维的自动化,NVIDIA 还推出了 NVIDIA Mission Control™ —— 一款 AI 数据中心运维和编排软件,适用基于 Blackwell 的 DGX 系统。

NVIDIA DGX 系统支持 NVIDIA AI Enterprise 软件平台用于构建并部署企业级 AI 智能体。其包括 NVIDIA NIM™ 微服务,如今日发布的全新 NVIDIA Llama Nemotron 开放推理模型系列,以及用于编排和优化 AI 智能体性能的 NVIDIA AI Blueprint、框架、库和工具。

NVIDIA Instant AI Factory 满足基础设施需求

NVIDIA Instant AI Factory 为企业提供了一项由 Equinix 托管的服务,其基于 Blackwell Ultra 驱动的 NVIDIA DGX SuperPOD ,并配备 NVIDIA Mission Control 软件。

依托 Equinix 遍布全球的专用设施,该服务将为企业交付全面配置的智能生成型AI工厂——这些工厂已针对尖端模型训练与实时推理任务负载进行了深度优化,省去了冗长繁琐、耗费数月的预部署基础设施规划周期。

供应情况

搭载 DGX GB300 或 DGX B300 系统的 NVIDIA DGX SuperPOD 预计将于今年晚些时候通过合作伙伴提供。

NVIDIA Instant AI Factory 计划于今年晚些时候上市。

更多信息,请观看 NVIDIA GTC 主题演讲,并在3 月 21 日前注册参加由 NVIDIA 和行业领袖带来的主讲会议。

关于 NVIDIA
NVIDIA (NASDAQ: NVDA) 是加速计算领域的全球领导者。

本新闻稿中的部分陈述,包括但不限于有关以下内容的表述:NVIDIA 产品、服务和技术的优势、影响、可用性和性能,采用 NVIDIA 产品和技术的第三方及其优势和影响,以及 AI 正以光速推进,企业竞相构建 AI 工厂实现扩展,以满足推理 AI 和推理时扩展的处理需求,均属前瞻性陈述,受风险和不确定性影响,可能导致结果与预期大相径庭。可能导致实际结果产生重大差异的重要因素包括:全球经济状况;我们依靠第三方来制造、组装、包装和测试我们的产品;技术发展和竞争的影响;新产品和技术的开发或者现有产品升级;我们产品或合作伙伴产品的市场认可度;设计、制造或软件缺陷;消费者偏好或需求的变化;行业标准和接口变化;我们产品或技术在集成到系统中时发生的意外性能损失;NVIDIA 向美国证券交易委员会(SEC)提交最新报告中不时详述的其他因素,这些报告包括(但不限于)采用 10-K 表的年度报告和采用 10-Q 表的季度报告。向 SEC 提交的报告的副本均在 NVIDIA 的官方网站上发布,并可免费下载。以上前瞻性陈述并非未来表现的保证,仅以本协议日期为准;除法律要求外,NVIDIA 不承担更新以上前瞻性陈述以反映未来事件或情况的任何义务。

本文描述的许多产品和功能仍处于不同阶段,其提供与否将取决于具体情况。 上述陈述不旨在、也不应被解释为承诺、保证或法律义务。我们产品所述的任何特性或功能的开发、发布和时间安排均可能发生变化,并由 NVIDIA 全权决定。对于未能交付或延迟交付的本文所述任何产品、特性或功能,NVIDIA 不承担任何责任。

© 2025 NVIDIA Corporation.保留一切权利。NVIDIA、NVIDIA 商标、BlueField、ConnectX、DGX、NVIDIA DGX SuperPOD、NVIDIA Grace、NVIDIA Hopper、NVIDIA Mission Control、NVIIDA NIM、NVIDIA Spectrum-X 和 NVLink 均为 NVIDIA Corporation 在美国和其他国家/地区的商标和/或注册商标。其他公司名称和产品名称可能是与其相关的各家公司的商标。功能、定价、可用性和规格如有变更,恕不另行通知。