谷歌 DeepMind 与谷歌研究团队所使用的 NVIDIA 生成式 AI 技术经过优化,现可供全球谷歌云客户使用
Google Cloud Next — 2023 年 8 月 29 日 — 谷歌云(Google Cloud)与 NVIDIA 于今日宣布推出全新 AI 基础设施和软件,帮助客户构建和部署用于生成式 AI 的大规模模型,加快数据科学工作负载的速度。
在 Google Cloud Next 的炉边谈话中,谷歌云首席执行官 Thomas Kurian 与 NVIDIA 创始人兼首席执行官黄仁勋讨论了双方合作如何为全球一些最大的 AI 客户提供端到端的机器学习服务,包括通过基于 NVIDIA 技术构建的谷歌云产品轻松运行 AI 超级计算机。新的软硬件集成将使用谷歌 DeepMind 和谷歌研究团队在过去两年中所采用的 NVIDIA 技术。
黄仁勋表示:“我们正处于一个拐点,加速计算与生成式 AI 的组合将以前所未有的速度推动创新。此次扩大与谷歌云的合作,将帮助开发者通过能源效率提升同时降低成本的基础设施、软件和服务加快工作速度。”
Kurian 表示:“谷歌云很久以前就开始通过 AI 领域的创新推动和加速客户创新。谷歌的众多产品都是在 NVIDIA GPU 上构建和提供的,我们的许多客户都想要通过 NVIDIA 加速计算提升大语言模型(LLM)的开发效率,以推进生成式 AI 的发展。”
加快 AI 和数据科学发展的 NVIDIA 集成
谷歌用于构建大规模大语言模型(LLM)的框架——PaxML,现已针对 NVIDIA 加速计算进行了优化。
PaxML 最初是为覆盖多个谷歌 TPU 加速器片而构建的。现在,PaxML 助力开发者使用 NVIDIA® H100 和 A100 Tensor Core GPU 进行高级、完全可配置的实验与扩展。经 GPU 优化的 PaxML 容器可在 NVIDIA NGC™ 软件目录中即刻获得。另外,PaxML 还可在 JAX 上运行,JAX 使用 OpenXLA 编译器针对 GPU 进行了优化。
谷歌 DeepMind 和其他谷歌研究员是首批将 PaxML 与 NVIDIA GPU 一起用于探索性研究的人。
很快,NVIDIA 针对 PaxML 优化的容器就会在 NVIDIA NGC 容器注册表上向全球正在构建下一代 AI 应用的研究员、初创公司和企业开放。
此外,两家公司还宣布谷歌通过 Dataproc 服务将 serverless Spark 与 NVIDIA GPU 进行集成。这将帮助数据科学家加速 Apache Spark 工作负载,为 AI 开发准备数据。
以下这些新的集成是 NVIDIA 与谷歌长期广泛合作的最新成果,涵盖了硬件和软件领域,包括:
- 由 NVIDIA H100 驱动的谷歌云 A3 虚拟机:谷歌宣布,由 NVIDIA H100 GPU 驱动的谷歌云 A3 虚拟机将于下月全面上市,这将使 NVIDIA 的 AI 平台能够更加方便地被用于各种工作负载。与上一代产品相比,A3 虚拟机的训练速度提高了3倍,网络带宽也显著提升。
- NVIDIA H100 GPU 将为谷歌云 Vertex AI 平台提供动力:H100 GPU 预计将在未来几周内通过 Vertex AI 全面上市,帮助客户快速开发生成式 AI 大语言模型(LLM)。
- 谷歌云将获得 NVIDIA DGX™ GH200 访问权限:谷歌云将是全球首批获得 NVIDIA DGX GH200 AI超级计算机(搭载 NVIDIA Grace Hopper™ 超级芯片)访问权限的公司之一,将率先探索其在生成式 AI 工作负载方面的能力。
- NVIDIA DGX 云将登陆谷歌云:客户可直接通过网络浏览器使用 NVIDIA DGX 云 AI 超级计算和软件,体验高级训练工作负载所需的速度和规模。
- NVIDIA AI Enterprise 将登陆谷歌云市场:NVIDIA AI Enterprise 是一个安全的云原生软件平台,可简化生成式 AI、语音 AI、计算机视觉等企业就绪型应用的开发和部署。
- 谷歌云将率先提供 NVIDIA L4 GPU:今年早些时候,谷歌云推出了 G2 虚拟机,成为首家提供 NVIDIA L4 Tensor Core GPU 的云供应商。NVIDIA 客户在将 AI 视频工作负载从 CPU 切换到 L4 GPU 后,可提升高达 120 倍的性能和 99% 的效率。L4 GPU 广泛用于图像和文本生成,以及 VDI 和 AI 加速的音频/视频转码。