NVIDIA 与微软共同发布了产品集成,专为推动微软平台和应用上的 NVIDIA 全栈 AI 开发而设计。
在微软 Ignite 技术大会上,微软宣布推出基于 NVIDIA Blackwell 平台的 Azure ND GB200 V6 VM 系列的首个云私有预览版。即将推出的全新 AI 优化虚拟机(VM)系列 Azure ND GB200 v6 结合了 NVIDIA GB200 NVL72 机架设计并搭配了 NVIDIA Quantum InfiniBand 网络。
微软还透露,Azure Container Apps 现已支持 NVIDIA GPU,使 AI 部署变得简单且可扩展。此外,Azure 上的 NVIDIA AI 平台包括针对新的工业 AI 的参考工作流和用于创建沉浸式 AI 视觉效果的 NVIDIA Omniverse Blueprint。
NVIDIA 还在 Ignite 技术大会上发布了适用于 RTX AI PC 和工作站的多模态小语言模型(SLM),以更高的逼真度增强数字人交互和虚拟助手。
NVIDIA Blackwell 驱动 Microsoft Azure 上的下一代 AI
微软新推出的 Azure ND GB200 V6 虚拟机系列将充分利用 NVIDIA GB200 Grace Blackwell 超级芯片的强大性能,并搭配先进的 NVIDIA Quantum InfiniBand 网络。该产品针对大规模深度学习工作负载进行了优化,以加速自然语言处理、计算机视觉等领域的突破。
这一基于 Blackwell 的虚拟机系列是对之前发布的基于 ND H200 V5 系列虚拟机的 Azure AI 集群的补充,后者提供了更大的高带宽显存以改善 AI 推理。ND H200 V5 系列虚拟机已被 OpenAI 用于增强 ChatGPT。
Azure Container Apps 通过 NVIDIA 加速计算实现无服务器 AI 推理
无服务器计算为 AI 应用开发者提供了更高的灵活性,使他们能够在无需担心底层基础设施的情况下快速部署、扩展和迭代应用。这样一来,他们就能够专注于优化模型和改进功能,同时尽可能地减少运营开销。
Azure Container Apps 无服务器容器平台通过将底层基础设施抽象化,使基于微服务的应用更易于部署和管理。
Azure Container Apps 现支持使用无服务器 GPU 的 NVIDIA 加速工作负载,使开发者能够在灵活的、基于消耗的无服务器环境中将加速计算的强大功能用于开发实时 AI 推理应用。该功能简化了 AI 的大规模部署,同时提高了资源效率和应用性能,且无需承受基础设施管理的负担。
借助无服务器 GPU,开发团队能够将更多精力放在创新上,减少对基础设施管理的关注。通过按秒计费和零扩展功能,客户只需为所使用的算力付费,有助于确保资源利用的经济高效。为了优化 AI 模型性能,NVIDIA 还与微软一同将 NVIDIA NIM 微服务引入了 Azure 中的无服务器 NVIDIA GPU。
NVIDIA 发布适用于先进 3D 应用的 Omniverse 参考工作流
NVIDIA 发布了多个参考工作流,帮助开发者在 NVIDIA Omniverse 和通用场景描述 (OpenUSD) 上构建 3D 仿真和数字孪生应用,以加速工业 AI 的发展,提升 AI 驱动的创造力。
适用于工业运营 3D 远程监控的参考工作流即将推出,使开发者能够将具有物理精度的 3D 工业系统模型与 Azure IoT Operations 和 Power BI 的实时数据连接起来。
这两项微软服务通过与基于 NVIDIA Omniverse 和 OpenUSD 构建的应用集成,提供工业物联网用例解决方案。这有助于远程运营团队加快决策速度并优化生产设施的流程。
借助 Omniverse Blueprint 精准视觉生成 AI,开发者能够创建出让非技术团队在生成 AI 增强视觉效果的同时,保留品牌资产的应用。该蓝图支持 SDXL 和 Shutterstock Generative 3D 等模型,以简化品牌 AI 生成图像的创建。
Accenture Song、Collective、GRIP、Monks 和 WPP 等一流的创意公司都在使用 NVIDIA Omniverse Blueprint 为各个市场创建个性化和定制图像。
借助 RTX AI PC 加速 Windows 的生成式 AI 功能
NVIDIA 与微软的合作范围已扩展到将 AI 功能引入个人计算设备。
在 Ignite 技术大会上,NVIDIA 宣布推出全新多模态小语言模型——NVIDIA Nemovision-4B Instruct。这个即将在 RTX AI PC 和工作站上推出的小语言模型专用于理解现实世界和屏幕上的视觉图像,为实现更加复杂、逼真的数字人交互奠定基础。
此外,NVIDIA TensorRT Model Optimizer (ModelOpt) 的更新为 Windows 开发者提供了针对 ONNX Runtime 部署的模型优化方案。借助 TensorRT ModelOpt,开发者能够创建适用于 PC 的 AI 模型,这些模型在 RTX GPU 的加速下具有更快的速度和更高的精度。这使大模型能够适应 PC 环境的限制,同时使开发者能够通过 ONNX Runtime 将模型轻松部署到整个 PC 生态系统中。
搭载 RTX AI 的 PC 和工作站提供了由本地 AI 驱动的增强型生产力工具、创意应用和沉浸式体验。
全栈协作助力 AI 开发
NVIDIA 广泛的合作伙伴和开发者生态系统为 Azure 平台带来了丰富的 AI 和高性能计算选项。
全球 IT 咨询和数字服务提供商 SoftServe 宣布,基于 NVIDIA AI Blueprint 的 SoftServe Gen AI Industrial Assistant 已在 Azure 应用市场上线,用于多模式 PDF 数据提取。其利用 AI 加强设备维护和提高工人生产力,以此解决制造业面临的重大挑战。
AT&T 在 Ignite 技术大会上展示了如何使用 NVIDIA AI 和 Azure,通过检索增强生成和自动助手及智能体来提高运营效率、提升员工生产力并推动业务增长。
进一步了解有关 NVIDIA 和微软在 Ignite 技术大会上的合作和会议的更多信息。
参见有关软件产品信息的通知。