微软与 NVIDIA 宣布大规模集成,为全球企业加速生成式 AI

by 英伟达中国
  • Microsoft Azure 将采用 NVIDIA Grace Blackwell 超级芯片来加速客户和第一方 AI 产品
  • NVIDIA DGX Cloud 与 Microsoft Fabric 的原生集成,利用客户自己的数据来简化自定义 AI 模型的开发
  • NVIDIA Omniverse Cloud API 率先上线 Azure,助力工业设计和仿真工具生态系统
  • 通过 NVIDIA AI 和加速计算平台增强 Microsoft Copilot
  • 面向企业、开发者和医疗应用的全新 NVIDIA 生成式 AI 微服务即将上线 Microsoft Azure AI

GTC —— 在 GTC 大会上,微软公司和 NVIDIA 通过强大的新集成扩展了双方的长期合作,在 Microsoft Azure、Azure AI 服务、Microsoft Fabric 和 Microsoft 365 平台上应用了最新的 NVIDIA 生成式 AI 和 Omniverse™ 技术。

微软董事长兼首席执行官 Satya Nadella 表示:“我们正在与 NVIDIA 携手合作,一同实现 AI 的承诺,即让世界各地的人们和组织都从中受益并提高生产力。从将 GB200 Grace Blackwell 处理器引入 Azure,到 DGX Cloud 和 Microsoft Fabric 之间的最新集成,今日的发布将确保客户在 Copilot 堆栈的每一层——从芯片到软件——都拥有最全面的平台和工具,以构建自己的突破性 AI 能力。”

NVIDIA 创始人兼首席执行官黄仁勋表示:“AI 正在改变我们的日常生活,开启一个充满新机遇的世界。通过与微软合作,我们正在开创未来,为客户兑现 AI 的承诺,帮助他们为世界提供创新的解决方案。”

推进 AI 基础设施

微软将成为首批将 NVIDIA Grace Blackwell GB200 和先进的 NVIDIA Quantum-X800 InfiniBand 网络引入 Azure 的组织之一,为自然语言处理、计算机视觉、语音识别等提供顶级的万亿参数基础模型。

微软还宣布基于 NVIDIA H100 NVL 平台的 Azure NC H100 v5 VM 虚拟机(VM)正式上线。NC 系列虚拟机专为中端训练和推理而设计,为客户提供两类虚拟机,一个到两个 NVIDIA H100 94GB PCIe Tensor Core GPU,并支持 NVIDIA 多实例 GPU(MIG)技术,允许客户将每个 GPU 划分为最多七个实例,为多样化的 AI 工作负载带来了灵活性和可扩展性。

医疗和生命科学领域的突破

微软正在扩大与 NVIDIA 的合作,通过集成云、AI 和超级计算技术来推动医疗和生命科学领域的变革。通过充分利用 NVIDIA DGX™ Cloud 和 NVIDIA Clara™ 微服务套件以及 Microsoft Azure 的强大力量,医疗机构、制药和生物技术公司以及医疗设备开发商将很快能够在临床研究和患者治疗方面快速创新并提高效率。

赛诺菲、麻省理工学院布罗德研究所和哈佛大学等行业领导者、Flywheel 和 SOPHiA GENETICS 等独立软件开发商、威斯康星大学医学与公共卫生学院等学术医疗中心以及 Mass General Brigham 等医疗系统已经在利用云计算和 AI 来推动医疗变革,并加强患者护理。

工业数字化

NVIDIA Omniverse Cloud API 将于今年晚些时候率先在 Microsoft Azure 上提供,使开发人员能够加强现有软件的数据互操作性、协作和基于物理的可视化。在 NVIDIA GTC 大会上,微软展示了在 Microsoft Azure 上使用 Omniverse Cloud API 的预览版本。借助 Microsoft Power BI 中的交互式 3D 查看器,工厂操作员可以看到覆盖在工厂设施的 3D 数字孪生上的实时工厂数据,从而获得可以加快生产的新见解。

NVIDIA Triton 推理服务器和 Microsoft Copilot

NVIDIA GPU 和 NVIDIA Triton 推理服务器有助于在适用于 Microsoft 365 的 Microsoft Copilot 中提供 AI 推理预测。在 Windows 11 PC 上,适用于 Microsoft 365 的 Copilot将以专用物理键盘键的形式出现,它将大语言模型的强大力量与专有企业数据相结合,提供实时的上下文智能,使用户能够提高创造力、生产力和技能。

从 AI 训练到 AI 部署

NVIDIA NIM™ 推理微服务即将登陆 Azure AI,以加速 AI 部署。NIM 是 NVIDIA AI Enterprise 软件平台的一部分,也可在 Azure Marketplace 中获取,它提供云原生微服务,用于在 20 多个热门基础模型上优化推理,包括由 NVIDIA 开发的模型,用户可以在 ai.nvidia.com 网站上体验这些模型。对于部署,这些微服务提供基于 NVIDIA AI Enterprise 推理软件、可在任何地方运行的预构建容器(包括 Triton 推理服务器、TensorRT™ 和 TensorRT-LLM),帮助开发人员加快性能优化的生产级 AI 应用的上市。