随时准备进行逻辑推理:存储领军企业通过 NVIDIA AI 数据平台构建基础设施,为 AI 智能体提供动力

为了让 AI 智能体能够服务于全球数十亿知识工作者,领军制造商正在推出基于 NVIDIA 参考设计的 AI 存储系统,涵盖了 NVIDIA 加速计算、网络和软件。
作者 John Kim

全球领先的存储和服务器制造商正在将自己的设计和工程专业知识与 NVIDIA AI 数据平台(用于构建新型 AI 基础设施的可定制参考设计)相结合,提供面向新一代代理式 AI 应用和工具的系统。 

现在,全球存储系统领军企业正在利用该参考设计来支持 AI 逻辑推理智能体,以发挥企业所用的存储在数以百万计的文档、视频和 PDF 中的信息的价值。

NVIDIA 认证存储合作伙伴 DDN、Dell Technologies、Hewlett Packard Enterprise、Hitachi Vantara、IBMNetApp、Nutanix、Pure StorageVAST DataWEKA 推出了基于 NVIDIA AI 数据平台构建的产品和解决方案,涵盖了 NVIDIA 加速计算、网络和软件。

此外,AIC、ASUS、Foxconn、Quanta Cloud Technology、Supermicro、Wistron 和其他原始设计制造商 (ODM) 正在开发支持 NVIDIA 参考设计的新存储和服务器硬件平台。 这些平台配备 NVIDIA Blackwell GPU、NVIDIA BlueField DPUNVIDIA Spectrum-X 以太网网络,并对运行 NVIDIA AI Enterprise 软件进行了优化。

通过这种集成,各行业的企业能够快速部署存储和数据平台,实现实时扫描、索引、分类和检索大量私人和公共文档。 这有助于 AI 智能体进行逻辑推理并解决复杂且有多个步骤的问题。

利用这些新型AI 数据平台解决方案构建代理式AI 基础设施,可以帮助企业利用检索增强生成 (RAG) 软件(包括 NVIDIA NeMo Retriever 微服务和 AI-Q NVIDIA Blueprint),将数据转化为可运用的知识。

基于 NVIDIA AI 数据平台参考设计构建的存储系统将数据转化为知识,大幅提高许多用例中的代理式 AI 推理精度。 这有助于 AI 智能体和客服代表提供更快、更准确的响应。

通过更多地访问数据,智能体还可以为各类研究人员生成复杂文档甚至视频的交互式摘要,并可以帮助网络安全团队维护软件安全。

领军存储提供商展示面向代理式 AI 的 AI 数据平台

存储系统领军企业在提供运行 AI 智能体的基础设施方面扮演着至关重要的角色。

将 NVIDIA GPU、网络和 NIM 微服务嵌入到更接近存储的位置,通过使计算更接近关键内容来增强 AI 查询。存储提供商可以将其文档安全和访问控制相关的专业知识集成到内容索引和检索流程中,从而提高 AI 推理的安全性和数据隐私合规性。

IBM、NetApp 和 VAST Data 等数据平台领导者正在使用 NVIDIA 参考设计来扩展 AI 技术。

IBM Fusion 是一个在 Red Hat OpenShift 上运行虚拟机、Kubernetes 和 AI 工作负载的混合云平台,可提供内容感知存储服务,帮助您解锁非结构化企业数据的含义,增强推理能力,从而让 AI 助手和智能体能够提供更好、更相关的答案。当将内容感知存储与 NVIDIA GPU、NVIDIA 网络、AI-Q NVIDIA Blueprint 和 NVIDIA NeMo Retriever 微服务(都是 NVIDIA AI 数据平台的组成部分)相结合时,可以更快地通过 RAG  洞察 AI 应用。

NetApp 凭借基于 NVIDIA 参考设计构建的 NetApp AIPod 方案,推出了面向代理式 AI 的领先企业存储。 NetApp 将 NVIDIA GPU 集成到数据计算节点中,以运行 NVIDIA NeMo Retriever 微服务,并通过 NVIDIA 网络将这些节点和可扩展存储连成了一体。

VAST Data 将 AI-Q NVIDIA Blueprint嵌入 VAST Data Platform 中,提供统一的 AI 原生基础设施,用于构建和扩展智能的多代理系统。通过高速数据访问、企业级安全性和持续学习循环,助力企业操作代理式 AI 系统,做出更明智的决策,将复杂工作流自动化,并提高生产力。

ODM 在 AI 数据平台硬件上的创新

ODM 拥有丰富的服务器和存储设计与制造经验,与存储系统领军企业合作,更快地将创新的 AI 数据平台硬件推向企业。

ODM 提供机箱设计、GPU 集成、冷却方案创新和存储介质连接,可满足构建可靠、紧凑、节能且经济实惠的 AI 数据平台服务器的需求。  

AIC 正在构建基于 NVIDIA BlueField 数据处理器(DPU)的闪存存储服务器,与传统存储设计相比,可以实现更高的吞吐量和更好的能源效率。 这些存储阵列被用于许多基于 AI 数据平台的设计中。

华硕与 WEKA 和 IBM 合作展示了面向 AI 和高性能计算工作负载的下一代统一存储系统,可满足广泛的存储需求。RS501A-E12-RS12U 通过 WEKA 认证的软件定义存储解决方案,打破了传统硬件的限制,提供卓越的灵活性,可支持文件、对象和块存储,以及全闪存、分层和备份功能。

富士康在为大量的制造企业构建用于AI 数据平台解决方案的加速服务器和存储平台。 其子公司 Ingrasys 则提供支持 AI 数据平台的 NVIDIA 加速 GPU 服务器。

Supermicro 正在使用该参考设计构建基于 NVIDIA Grace CPU 超级芯片 或 BlueField-3 DPU(数据处理器)的智能全闪存存储阵列。和软件定义存储供应商一起,Supermicro Petascale JBOFPetascale 全闪存阵列存储服务器能够实现高性能和低能耗,并支持用于 AI 数据平台的解决方案。

Quanta Cloud Technology 正在设计和构建包含 NVIDIA GPU 和网络的加速服务器和存储设备。 它们非常适合运行 NVIDIA AI Enterprise 软件并支持 AI 数据平台解决方案。 

Wistron 和 Wiwynn 提供与 AI 数据平台兼容的创新硬件设计,并利用 NVIDIA GPU、NVIDIA BlueField DPU 和 NVIDIA 以太网 SuperNIC 来加速计算和数据搬运。

NVIDIA GTC 台北将于 5 月 21 日至 22 日在 COMPUTEX 举行,您可通过该会议了解更多关于代理式 AI 的最新进展。