OpenAI 与 NVIDIA 共同开发专为全球大型 AI 推理基础设施优化的全新开放模型,推动 AI 创新 

NVIDIA 为 gpt-oss-120b 带来业界领先性能,在单个 NVIDIA Blackwell 系统上实现每秒 150 万个 Token。
作者 英伟达中国

OpenAI 发布了两个全新开放权重 AI 逻辑推理模型,为全球各个行业、规模的开发者、爱好者、企业、初创公司及政府机构带来前沿 AI 开发技术。 

由 NVIDIA 与 OpenAI 共同开发的开放模型 gpt-oss-120bgpt-oss-20b,展现了由社区驱动创新的力量,并凸显 NVIDIA 在推动全球 AI 普及中的关键作用。 

任何人都可以使用这两个模型开发生成式 AI逻辑推理 AI物理 AI 以及医疗和制造领域的突破性应用,甚至在 AI 驱动的新一轮工业革命发展过程中开拓新的行业领域。 

OpenAI 新发布的灵活、开放权重的文本推理大语言模型 (LLM) 在 NVIDIA Hopper 架构 GPU 上训练而成,能够在全球数亿颗运行 NVIDIA CUDA 平台的 GPU 上实现极佳推理性能。 

这些模型现已作为 NVIDIA NIM 的形式提供,可轻松地部署在任何 GPU 加速基础设施上,并同时具有灵活性、数据隐私和提供企业级安全等特性。 

凭借专为 NVIDIA Blackwell 平台开发的软件优化措施,这两个模型可在 NVIDIA GB200 NVL72 系统上实现每秒 150 万个 Token 的卓越推理性能,极大提升推理效率。 

NVIDIA 创始人兼首席执行官黄仁勋表示:“OpenAI 向世界展示了基于 NVIDIA AI 开发的技术,现在他们正在推动开源软件领域的创新。新发布的 gpt-oss 模型使全球各地的开发者都能够在先进的开源基础上进行开发,而这一切都要依托领先的 AI 计算基础设施。” 

NVIDIA Blackwell 提供先进的推理技术 

随着 gpt-oss 等先进逻辑推理模型所生成 Token 的数量指数级增长,对计算基础设施的需求也大幅增加。NVIDIA Blackwell 驱动的专用 AI 工厂能够满足这一需求,该架构旨在提供超高性能推理所需的规模、效率和投资回报。 

NVIDIA Blackwell 包含 NVFP4 4 位精度等创新技术,可在大幅降低功耗和显存需求的同时,实现极高的推理效率和准确性。这使得实时部署万亿参数级的大语言模型 (LLM) 成为可能,进而为企业创造数十亿美元的价值。 

帮助全球数百万 AI 构建者实现开放式开发 

NVIDIA CUDA 是全球广泛使用的计算基础设施。无论是在强大的 NVIDIA DGX Cloud 平台,还是 NVIDIA GeForce RTXNVIDIA RTX PRO 驱动的 PC 和工作站,用户都可以任意部署和运行 AI 模型。

截至目前,NVIDIA CUDA 的下载量已超过 4.5 亿次。庞大的 CUDA 开发者社区现已能够使用这两个最新模型,并在其自身使用的 NVIDIA 技术栈上运行。 

为进一步推动软件开源,OpenAI 与 NVIDIA 还携手顶级开源框架提供商,为 FlashInfer、Hugging Face、llama.cpp、Ollama 和 vLLM 等框架以及 NVIDIA Tensor-RT LLM 等库提供模型优化方案,使开发者能够选择自己常用的框架进行开发。  

建立在开源基础上的长期合作 

新发布的模型展现了 NVIDIA 的全栈技术如何将全球前沿的 AI 项目带给尽可能广泛的用户群体。 

这个故事可追溯到 NVIDIA 与 OpenAI 的初期合作。2016 年,黄仁勋亲自将首台 NVIDIA DGX-1 AI 超级计算机送至 OpenAI 位于旧金山的总部。 

自那时起,两家公司就一直共同推动 AI 技术的边界,为用户提供大规模训练所需的核心技术与专业知识。 

如今,全球 250 个国家 / 地区共有 650 万开发者正在使用 900 多种 NVIDIA 软件开发套件和 AI 模型进行开发,这一数字仍在持续增长。通过对 OpenAI 的 gpt-oss 模型进行 NVIDIA Blackwell 和 RTX GPU 适配优化以及推出丰富的软件堆栈,NVIDIA 正在为这些开发者提供更加快速、更具有经济效益的先进 AI 技术。 

您可通过阅读 NVIDIA 技术博客 NVIDIA RTX AI Garage 博客系列的最新文章了解更多详情,并开始使用 gpt-oss 模型进行开发。