NVIDIA 推出 BlueField-4 STX 存储架构,获业界广泛采用

作者 英伟达中国

新闻摘要:

  • 全新 NVIDIA STX 参考架构可提升高达 5 倍的 Token 吞吐量,能效提升高达 4 倍,数据摄取速度提升 2 倍。
  • 率先将 STX 用于上下文记忆存储的厂商包括 CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure(OCI)和 Vultr。
  • 多家存储厂商与制造合作伙伴正在基于 NVIDIA 模块化参考设计来构建基础设施,以推进代理式 AI 的发展,包括 AIC、Cloudian、DDN、戴尔科技、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、Supermicro、Quanta Cloud Technology(QCT)、VAST Data 和 WEKA。

加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2026 年 3 月 16 日 ——NVIDIA 今日宣布推出 NVIDIA BlueField-4® STX 模块化参考架构,该架构可助力企业、云计算及 AI 服务商轻松部署加速存储基础设施,以满足代理式 AI 所需的长上下文推理能力。

传统数据中心提供大容量通用存储,但难以满足与跨多步骤、多工具和多轮会话的 AI 智能体无缝交互所需的响应速度。代理式 AI 需要实时访问数据和上下文工作记忆,以确保对话和多任务的快捷性和连贯性。随着上下文规模的不断扩大,传统存储和数据路径可能会降低 AI 推理的速度,并降低 GPU 利用率。

NVIDIA STX 助力存储厂商构建数据就近并可大规模访问的基础设施,从而使代理式 AI 工厂能够在推理、训练和分析方面提供更高的吞吐量和响应速度。

首个机架级部署方案集成了全新的 NVIDIA CMX™ 上下文记忆存储平台。通过引入高性能的上下文层来扩展 GPU 内存,从而实现可扩展的推理和代理式系统。与传统存储相比,每秒可处理的 Token 提升高达 5 倍。

NVIDIA 创始人兼首席执行官黄仁勋表示:“代理式 AI 正在重新定义软件的能力,必须重塑其背后的计算基础设施才能跟上这一步伐。能够基于海量上下文进行推理并持续学习的 AI 系统,需要新的存储方案。NVIDIA STX 重新定义了存储堆栈,为 AI 原生基础设施提供了模块化基础,确保 AI 工厂始终保持峰值性能高效运行。”

STX 由 NVIDIA Vera Rubin 平台提供加速,集成了针对存储进行优化的全新 NVIDIA BlueField-4 处理器。该处理器将 NVIDIA Vera CPUNVIDIA ConnectX® -9 SuperNIC 相结合,并配合 NVIDIA Spectrum-X™ 以太网网络、NVIDIA DOCA™ 以及 NVIDIA AI Enterprise 软件共同运行。

与传统 CPU 架构相比,STX 架构的能效提升高达 4 倍,从而实现高性能存储,并且在处理企业级 AI 数据时,每秒可处理的内存页数提升 2 倍。

众多存储厂商合作伙伴正在基于 NVIDIA STX 共同设计新一代 AI 基础架构,包括 Cloudian、DDN、戴尔科技、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、VAST Data 和 WEKA。

正在构建基于 STX 系统的制造合作伙伴包括 AIC、Supermicro 和 Quanta Cloud Technology (QCT)。

计划采用 STX 进行上下文记忆存储的主要 AI 实验室和云服务提供商包括 CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、OCI 和 Vultr。

基于 STX 的平台将于今年下半年由合作伙伴推出。

观看黄仁勋的 GTC 主题演讲,并探索更多会议议程。