洛杉矶 — SIGGRAPH — 2023 年 8 月 8 日 — NVIDIA 与 Hugging Face 宣布建立合作伙伴关系,为数百万开发者提供生成式 AI 超级计算服务,帮助他们构建大语言模型(LLM)和其他高级 AI 应用。
此次合作将使开发者能够使用 Hugging Face 平台内的 NVIDIA DGX™ 云 AI 超级计算为高级 AI 模型进行训练及调优,借助为智能聊天机器人、搜索、摘要等特定行业应用的业务数据定制的大语言模型(LLM),推动生成式 AI 在各个行业中的应用。
NVIDIA 创始人兼首席执行官黄仁勋表示:“研究人员和开发者是正在改变每个行业的生成式 AI 的核心力量。Hugging Face 与 NVIDIA 正在将全球最大的 AI 社区与 NVIDIA 在全球领先云环境中的 AI 计算平台相连接。通过双方的合作,Hugging Face 社区用户只需要点击一下鼠标,就可以使用 NVIDIA AI 计算。”
作为合作的一部分,Hugging Face 将提供一项名为“训练集群即服务(Training Cluster as a Service)”的新服务,用以简化企业创建新的自定义生成式 AI 模型的过程。该服务由 NVIDIA DGX 云提供支持,将在未来几个月内推出。
Hugging Face 联合创始人兼首席执行官 Clément Delangue 表示:“世界各地的人们正在利用生成式 AI 工具建立新的联系,进行新的探索,而我们仍处于这一技术转型的早期阶段。双方的合作将为 Hugging Face 带来 NVIDIA 最先进的 AI 超级计算,使企业能够通过开源并以他们需要的速度将 AI 的命运牢牢掌握在自己手中,推动未来发展。”
在Hugging Face 中大幅增强 LLM 定制和训练功能
Hugging Face 平台让开发者能够利用开源资源构建、训练和部署最先进的 AI 模型。目前有超过 15,000 家企业机构正在使用 Hugging Face,社区共享了超过 25 万个模型和 5 万个数据集。
DGX 云与 Hugging Face 的集成将实现对 NVIDIA 多节点 AI 超级计算平台的一键式访问。通过 DGX 云,Hugging Face 用户将能够连接到 NVIDIA AI 超级计算,提供利用独家数据快速训练和调整基础模型所需的软件和基础架构,推动新一轮企业大语言模型(LLM)开发浪潮。借助由 DGX 云提供支持的训练集群即服务,企业将能够利用其在 Hugging Face 上的独家数据,以前所未有的速度创建出独一无二的高效模型。
DGX 云为大规模模型加速开发和定制
每个 DGX 云实例均配备 8 颗 NVIDIA H100 或 A100 80GB Tensor Core GPU,每个节点的 GPU 总内存为 640GB。NVIDIA Networking 所提供的高性能、低延迟结构确保工作负载能够在互联系统集群中进行扩展,从而满足高级 AI 工作负载的性能要求。
DGX 云还提供 NVIDIA 专家支持,可帮助客户优化模型并快速解决开发难题。
DGX 云基础设施由领先的 NVIDIA 云服务提供商合作伙伴托管。
供应情况
与 Hugging Face 集成的 NVIDIA DGX 云预计将在未来几个月内推出。
请点击观看黄仁勋的 SIGGRAPH 主题演讲,了解有关 NVIDIA DGX 云的更多信息。
关于 Hugging Face
Hugging Face 是机器学习(ML)社区的协作平台。
Hugging Face Hub 是一个任何人都可以分享、探索、发现和试验开源 ML 的中心。HF 帮助下一代 ML 工程师、科学家和终端用户学习、协作并分享他们的工作成果,共同创造一个开放、道德的 AI 未来。
凭借快速发展的社区、一些最常用的开源 ML 库和工具,以及一支探索技术前沿的优秀科学团队,Hugging Face 正处于 AI 革命的核心。
关于 NVIDIA
自 1993 年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/。