NVIDIA 的加速计算平台和 Red Hat OpenShift 4 可帮助加速 AI 和数据科学的本地 Kubernetes 部署。
适用于希望获得 GPU 加速的企业,借助更快速的 AI 和数据科学项目,让生活变得更加轻松。
在今天的红帽峰会上,NVIDIA 和红帽推出了 NVIDIA GPU 加速计算平台和刚刚宣布的 Red Hat OpenShift 4 产品组合,以加速 AI 和数据科学的本地 Kubernetes 部署。
结果:以前通常需要花费 IT 管理员几乎一天时间来完成的 Kubernetes 管理任务,现在可以在一小时之内完成。
更高的 GPU 加速、更少的部署麻烦
当企业依赖 AI 和数据科学将其大量数据转换为可操作的智能时,就会需要这种合作。
但有意义的 AI 和数据分析工作需要加速企业 IT 软件和 GPU 计算的整个堆栈。软件的每一层(从 NVIDIA 驱动程序到容器运行时间到应用程序框架)都需要进行优化。
我们的 CUDA 并行计算架构和 CUDA-X 加速库已受到超过 120 万名开发者参与支持,可从 AI 到高性能计算再到 VDI 等多个领域快速扩展应用程序。
由于 NVIDIA 的通用架构在每台计算设备(从笔记本电脑到数据中心,再到云端)上运行,因此对 GPU 加速应用程序的投资物有所值,且颇有帮助。
不过,加速 AI 和数据科学工作负载只是第一步。在大规模的 GPU 加速数据中心,正确部署经过优化的软件堆栈对于 IT 公司而言可能具有困难且耗费时间。我们的红帽工作恰好可以对此提供帮助。
Red Hat OpenShift 是业内领先的企业级 Kubernetes 平台。OpenShift 4 的进步使得在集群中部署 Kubernetes 变得更加容易。特别是红帽对 Kubernetes Operators 的投资,通过自动完成许多例行数据中心管理和应用程序生命周期管理任务,降低了管理的复杂性。
NVIDIA 一直致力于提升自己的 GPU 运算符,自动完成 IT 管理员之前使用 Shell 脚本(如安装设备驱动程序)完成的许多工作,以确保数据中心中的所有节点上都存在正确的 GPU 容器运行时间,并监控 GPU。
通过借助红帽,在设置集群后,您只需运行 GPU 操作员将必要的依存关系添加到集群中的工作节点。就是这么简单。这可以让公司轻松地使用 OpenShift 4 获取 GPU 驱动型数据中心集群并运行,因为这是为了加速新的云资源。
预览和抢先体验计划
在“红帽 峰会”上,我们将在展位 1039 中展示预览效果:如何使用 OpenShift 和 GPU 运算符来设置裸机 GPU 集群。
此外,您也不想错过红帽首席技术官 Chris Wright 在星期三的主题演讲,并且 NVIDIA 计算软件副总裁 Chris Lamb 也将加入其中,共同展示我们的技术如何协同工作并讨论更多细节。
红帽 和 NVIDIA 正在邀请我们的共同客户参与一项上乘服务抢先体验计划。想要了解更多内容或抢先体验计划的客户可以通过以下网址进行注册https://www.openshift.com/accelerated-ai。