NVIDIA 推出开放推理 AI 模型系列,助力开发者和企业构建代理式 AI 平台

• 由 NVIDIA 后训练的全新 Llama Nemotron 推理模型,为代理式 AI 提供业务就绪型基础
• 埃森哲、Amdocs、Atlassian、Box、Cadence、CrowdStrike、德勤、IQVIA、微软、SAP 和 ServiceNow 与 NVIDIA 合作,率先推出推理 AI 智能体,改变工作方式
作者 英伟达中国

美国加利福尼亚州圣何塞 ——  GTC —— 2025 年 3 月 18 日 ——  NVIDIA 今日发布具有推理功能的开源 Llama Nemotron 模型系列,旨在为开发者和企业提供业务就绪型基础,助力构建能够独立工作或以团队形式完成复杂任务的高级 AI 智能体。

NVIDIA Llama Nemotron 推理模型系列基于 Llama 模型构建,提供按需 AI 推理功能。 NVIDIA 在后训练期间对该推理模型系列进行了增强,以提升多步数学运算、编码、推理和复杂决策能力。 

与基础模型相比,这种增强过程将模型的精度提高多达 20%;与其他领先的开放推理模型相比,优化推理速度达到了 5 倍。推理性能的提高意味着模型可处理更复杂的推理任务,增强决策能力,并降低企业运营成本。

包括埃森哲Amdocs、Atlassian、BoxCadenceCrowdStrike、德勤、IQVIA、微软、SAPServiceNow 的领先智能体 AI 平台, 正在这一全新推理模型和软件上与 NVIDIA 进行合作。

“推理和代理式 AI 的采用速度非常惊人,” NVIDIA 创始人兼首席执行官黄仁勋表示,“NVIDIA 的开放推理模型、软件和工具为世界各地的开发者和企业构建高效的代理式 AI 团队提供了坚实基础。”

NVIDIA 后训练为企业推理提高准确性和可靠性

Llama Nemotron 模型系列专为提供生产就绪型 AI 推理而打造,以 NVIDIA NIM™ 微服务形式提供,包括 Nano、Super 和 Ultra 三种规模,每种规模都针对不同部署需求进行了优化。  

Nano 模型可在 PC 和边缘设备上提供最高准确性;Super 模型能够在单个 GPU 上提供最佳的准确性和最高的吞吐量;而 Ultra 模型将在多 GPU 服务器上实现最高代理准确性。

NVIDIA 在 NVIDIA DGX™ Cloud 上采用高质量精选合成数据进行大量后训练,该合成数据由 NVIDIA Nemotron™ 模型和其他开源模型,以及 NVIDIA 共同创建的其它精选数据集生成。 

用于开发模型的工具、数据集和后训练优化技术将全面开放,为企业提供灵活性,以构建自己的自定义推理模型。 

代理式平台与 NVIDIA 合作为各行业增强推理能力

代理式 AI 平台行业领导者正在使用 NVIDIA Llama Nemotron 推理模型,为企业提供先进推理能力。

微软将 Llama Nemotron 推理模型和 NIM 微服务集成到 Microsoft Azure AI Foundry 中。 此举扩展了 Azure AI Foundry 模型目录,为客户提供增强服务的选项,如针对 Microsoft 365 的 Azure AI Agent Service。

SAP 正利用 Llama Nemotron 模型,推动 SAP Business AI 解决方案和 SAP 智能副驾 Joule 的发展。 此外,它还采用 NVIDIA NIM 和 NVIDIA NeMo™ 微服务,提高了 SAP ABAP 编程语言模型的代码补全精度。

“我们正在与 NVIDIA 合作,将 Llama Nemotron 推理模型整合到 Joule 中,以增强我们的 AI 智能体,使其更加直观、准确且具有成本效益。” SAP 全球 AI 负责人 Walter Sun 表示,“这些先进的推理模型将优化和重写用户查询请求,使我们的 AI 能够更好地理解问题,并提供更智能、更高效的 AI 体验,从而推动业务创新。”

ServiceNow 正利用 Llama Nemotron 模型构建 AI 智能体,提供更高的性能和准确性,从而提升各行各业的企业生产力。

埃森哲已经在其 AI Refinery 平台上提供 NVIDIA Llama Nemotron 推理模型,包括今日发布的全新行业智能体解决方案 —— 可助力客户快速开发和部署定制 AI 智能体,以应对行业特定挑战,加速业务转型。

德勤计划将 Llama Nemotron 推理模型纳入其近期发布的 Zora AI 代理式 AI 平台,该平台旨在通过包含深度功能性、特定行业业务知识以及具备透明度的智能体,为人类决策和行动提供支持。

NVIDIA AI Enterprise 为代理式 AI 提供必要工具

开发者可借助新的 NVIDIA 代理式 AI 工具和软件,部署 NVIDIA Llama Nemotron 推理模型,简化高级推理在协作 AI 系统中的应用。

作为 NVIDIA AI Enterprise 软件平台的组成部分,最新的代理式 AI 构建模块包括:

  • NVIDIA AI-Q Blueprint 助力企业将知识导入可自主感知、推理和行动的 AI 智能体。这一蓝图由 NVIDIA NIM 微服务构建,集成 NVIDIA NeMo Retriever™ 用于多模态信息检索,使用开源 NVIDIA AgentIQ 工具包将智能体和数据连接并优化,同时实现公开透明。
  • NVIDIA AI 数据平台为新型企业基础设施提供的可定制参考设计,集成了使用 AI-Q Blueprint 构建的 AI 查询智能体。  
  • 为复杂代理式 AI 应用优化推理的全新 NVIDIA NIM 微服务,可实现持续学习,并实时适应任意环境。微服务可确保对来自领先模型构建商,包括 Meta、微软和 Mistral AI 的最新模型进行可靠部署。
  • NVIDIA NeMo 微服务提供高效企业级解决方案,以快速建立并维护具有鲁棒性的数据飞轮,让 AI 智能体持续学习人类和 AI 生成的反馈。用于构建数据飞轮的 NVIDIA AI Blueprint 为开发者提供一个参考架构,使开发者可以利用 NVIDIA 微服务轻松构建和优化数据飞轮。

可用性

NVIDIA Llama Nemotron Nano、Super 模型和 NIM 微服务的托管应用编程接口,可通过 NVIDIA 官网 和 Hugging Face 获取。NVIDIA 开发者计划成员可免费访问,用于其开发、测试和研究工作。

企业可在加速数据中心和云基础设施上借助 NVIDIA AI Enterprise 在生产环境中运行 Llama Nemotron NIM 微服务。开发者可以提前注册,以便在 NVIDIA NeMo 微服务发布时及时收到通知。

NVIDIA AI-Q Blueprint 将于 4 月发布。NVIDIA AgentIQ 工具包现可前往 GitHub 下载。