NVIDIA 和谷歌云宣布开展一项新的合作,以帮助全球初创企业加速创建生成式 AI 应用和服务。
双方于今日在拉斯维加斯举行的 Google Cloud Next ’24 上宣布这一消息,将把针对初创企业的 NVIDIA 初创加速计划与 Google for Startups Cloud 计划相结合。此举将扩大云积分、产品上市支持和技术专业知识的受众面,帮助初创企业更快地为客户创造价值。
NVIDIA 初创加速计划是一项为 18,000 多家初创企业提供助力的全球性计划,符合资格的会员将能够通过加速途径使用谷歌云基础设施,并获得谷歌云积分,将为专注于 AI 的初创企业提供高达 35 万美元的积分。
Google for Startups Cloud 计划成员可加入 NVIDIA 初创加速计划并获得技术专业知识、NVIDIA 深度学习培训中心(DLI)课程学分、NVIDIA 硬件和软件等。符合条件的 Google for Startups Cloud 计划成员还可以参加 NVIDIA Inception Capital Connect,该平台让初创企业能够接触到对该领域感兴趣的风投公司。
参加这两项计划的高增长新兴软件制造商还可以快速入驻谷歌云 Marketplace,获得联合营销和产品加速支持。
此次合作是两家公司发布一系列公告的最新成果,旨在帮助各种规模的企业减少生成式 AI 应用开发成本和障碍。AI 投资所产生的高额成本对初创企业的制约尤其严重。
需要一个全栈式 AI 平台
今年 2 月,谷歌 DeepMind 推出了先进的开放模型系列 Gemma。NVIDIA 最近与谷歌合作,在所有适用于 Gemma 的 NVIDIA AI 平台上推出了优化方案,帮助降低客户成本,并加快针对特定领域用例的创新工作。
两家公司的团队进行了密切合作,利用 NVIDIA TensorRT-LLM(一个开源库,用于优化在 NVIDIA GPU 上运行的大语言模型的推理性能)加速 Gemma 的性能。创建 Gemma 所采用的研究和技术,与创建谷歌 DeepMind 功能强大的 Gemini 模型完全相同。
包含在 NVIDIA AI Enterprise 软件平台中的 NVIDIA NIM 微服务,将与 Google Kubernetes Engine(GKE)共同为 AI 应用开发以及将优化的 AI 模型部署到生产中提供简化的途径。NIM 是基于 NVIDIA Triton 推理服务器、TensorRT-LLM 等推理引擎所构建,其支持各种领先的 AI 模型,并提供无缝衔接、可扩展的 AI 推理,以加速企业中的生成式 AI 部署。
Gemma 系列模型包括 Gemma 7B、RecurrentGemma 和 CodeGemma 等,这些模型均可从 NVIDIA API 目录中获取。用户可在浏览器、带有 API 端点的原型和 NIM 的自托管中进行试用。
通过 GKE 和 Google Cloud HPC Toolkit,在谷歌云平台上部署 NVIDIA NeMo 框架变得更加轻松。这使开发者能够自动化与扩展生成式 AI 模型的训练和服务,并通过可定制蓝图来快速部署一站式环境,从而快速启动开发流程。
NVIDIA AI Enterprise 中的 NVIDIA NeMo 也可以在谷歌云 Marketplace 上获得,这为客户提供了另一种轻松访问 NeMo 和其他框架的方式,以加速 AI 开发。
为进一步扩大由 NVIDIA 提供加速的生成式 AI 计算的供应范围,谷歌云还宣布 A3 Mega 将于下月全面上市。这些实例是其 A3 虚拟机系列的扩展,搭载了 NVIDIA H100 Tensor Core GPU。新实例将使 A3 虚拟机的 GPU 到 GPU 网络带宽增加一倍。
A3 上的谷歌云全新机密虚拟机还将加入对机密计算的支持,以便帮助客户保护其敏感数据的机密性和完整性,并在训练和推理过程中确保应用和 AI 工作负载的安全(在使用 H100 GPU 加速时无需更改代码)。这些 GPU 驱动的机密虚拟机将在今年推出预览版。
下一个主角:NVIDIA Blackwell 架构 GPU
采用 NVIDIA Blackwell 平台的 NVIDIA 最新 GPU 将于明年初登陆谷歌云,推出 NVIDIA HGX B200 和 NVIDIA GB200 NVL72 两种版本。
HGX B200 专门用于要求最高的 AI、数据分析和高性能计算工作负载;GB200 NVL72 专门用于下一代大规模万亿参数模型的训练和实时推理。
NVIDIA GB200 NVL72 通过 900GB/s 的片间互联连接 36 个 Grace Blackwell 超级芯片,每个超级芯片上有 2 个 NVIDIA Blackwell GPU 和 1 个 NVIDIA Grace CPU,一个 NVIDIA NVLink 域最高支持 72 个 Blackwell GPU 和 130TB/s 的带宽。与上一代产品相比,它克服了通信瓶颈并且能够作为单颗 GPU 运行,其实时 LLM 推理和训练速度分别提高了 30 倍和 4 倍。
NVIDIA GB200 NVL72 是一套多节点机架级扩展系统,它将使用谷歌云的第四代先进液冷系统。
NVIDIA 于 3 月宣布,NVIDIA DGX Cloud已在搭载 H100 GPU 的 A3 虚拟机上全面推出,该 AI 平台是面向企业开发者的 AI 平台,针对生成式 AI 的需求进行了优化。搭载 GB200 NVL72 的 DGX Cloud 也将于 2025 年在谷歌云上推出。