NVIDIA DGX Cloud Lepton 连接欧洲开发者与 NVIDIA 全球计算生态

· Mistral AI、Nebius、Nscale、Firebird、Fluidstack、Hydra Host、Scaleway 和 Together AI,以及亚马逊云科技和 Microsoft Azure,为 DGX Cloud Lepton Marketplace 带来计算资源,以满足 AI 需求
· Hugging Face 将 DGX Cloud Lepton 集成到训练集群即服务中,扩大了 AI 研究人员为模型训练获取可扩展计算资源的机会
· NVIDIA 与知名欧洲风投为投资组合公司提供 Marketplace 积分,加速初创企业生态系统的发展
作者 英伟达中国

NVIDIA 宣布扩展 NVIDIA DGX Cloud Lepton™,这是一个承载全球计算市场的 AI 平台,连接代理式与物理 AI 应用开发者,现已通过日益扩大的云提供商网络提供 GPU 资源。

Mistral AI、Nebius、Nscale、Firebird、Fluidstack、Hydra Host、Scaleway 和 Together AI 现将 NVIDIA Blackwell 与其他 NVIDIA 架构 GPU 推向 marketplace,扩展这一地区内对高性能计算资源的获取途径。亚马逊云科技和 Microsoft Azure 将成为首批为 DGX Cloud Lepton 提供支持的超大规模云提供商。这些公司与 CoreWeave、Crusoe、Firmus、Foxconn、GMI Cloud、Lambda 及 Yotta Data Services 一起加入 marketplace。

为了增强加速计算在全球 AI 社区的可及性,Hugging Face 即将推出训练集群即服务 (Training Cluster as a Service)。这款新产品与 DGX Cloud Lepton 相集成,可将构建基础模型的 AI 研究人员和开发者与 NVIDIA 计算生态无缝连接。

NVIDIA 还与欧洲的领先风险投资公司 Accel、Elaia、Partech 和 Sofinnova Partners 协作,为投资组合公司提供 DGX Cloud Lepton marketplace 积分,赋能初创企业访问加速计算资源并扩大区域发展。

NVIDIA 创始人兼首席执行官黄仁勋表示:“DGX Cloud Lepton 正在连接欧洲开发者与全球 AI 基础设施。我们正在与来自欧洲的伙伴共同打造 AI 工厂网络,供开发者、研究人员和企业将本地的突破性成果扩展为全球性创新。”

DGX Cloud Lepton 将整个 NVIDIA 计算生态的云 AI 服务与 GPU 算力整合至一个平台,简化特定地区内对可靠高性能 GPU 资源的访问。这有助于开发者将其数据保留在本地,从而支持数据治理和主权 AI 的要求。

此外,通过与 NVIDIA 软件套件(包括 NVIDIA NIM™ 与 NeMo™ 微服务以及 NVIDIA Cloud Functions)相集成,DGX Cloud Lepton 能够简化和加速 AI 应用开发与部署的每一个环节,且不受规模制约。该 marketplace 可配合一个全新 NIM 微服务容器使用,后者支持广泛的大语言模型 (LLM),包括备受欢迎的开放 LLM 架构,以及在 Hugging Face 上的超过 100 万个开放和私有模型。

对于云提供商,DGX Cloud Lepton 提供的管理软件能够持续实时监控 GPU 运行状况并自动进行根本原因分析,从而可更大限度地减少手动干预并缩短停机时间。这可为提供商起到简化运营的作用,并确保客户以更可靠的方式访问高性能计算资源。

NVIDIA DGX Cloud Lepton 加速训练和部署

抢先体验借助 DGX Cloud Lepton 平台加速其战略 AI 项目的客户包括:

  • Basecamp Research 正运用其 98 亿参数蛋白质数据库预训练和部署大型生物基础模型,加速制药、食品、工业和环境生物技术领域全新生物解决方案的发现和设计。
  • 安永正在全球范围内对多云访问进行标准化,以加速针对特定领域和部门解决方案的 AI 智能体开发。
  • Outerbounds 正帮助客户基于经验证的可靠开源框架 Metaflow 构建差异化的生产级 AI 产品。
  • Prima Mente 通过预训练大型脑科基础模型来发现新的疾病机制和工具,在临床环境中对患者进行分层,从而大规模推进神经退行性疾病研究。
  • Reflection 正在构建超智能自主编码系统,以处理最复杂的企业工程任务。

Hugging Face 开发者现可跨云进行可扩展的 AI 训练

DGX Cloud Lepton 与 Hugging Face 的训练集群即服务相集成,将为 AI 构建者简化对 GPU marketplace 的访问,从而在靠近其训练数据的特定地区轻松保留、访问和使用 NVIDIA 计算资源。Hugging Face 用户通过连接全球云提供商网络,可以快速获取使用 DGX Cloud Lepton 进行训练所需的 GPU 算力。Mirror PhysicsProject NuminaTelethon Institute of Genetics and Medicine 等公司将成为首批使用由 DGX Cloud Lepton 提供计算资源的训练集群即服务的 Hugging Face 客户。他们将借助该平台推进化学、材料科学、数学和疾病研究领域先进 AI 模型的发展。

Hugging Face 联合创始人兼首席执行官 Clément Delangue 表示:“大规模高性能计算的获取,对于构建新一代跨领域、跨语言的 AI 模型而言具有重要意义。DGX Cloud Lepton 与训练集群即服务的集成将助力研究人员和企业扫清障碍,为训练先进模型赋能,突破 AI 可能性的边界。” 

DGX Cloud Lepton 助力 AI 初创企业生态发展

NVIDIA 正在与 Accel、Elaia、Partech 及 Sofinnova Partners 协作,通过 DGX Cloud Lepton 为符合条件的投资组合公司提供最高达 100,000 美元的 GPU 算力积分与 NVIDIA 专家支持。

BioCorteX、Bioptimus 和 Latent Labs 将率先使用 DGX Cloud Lepton,通过该平台探索和购买算力,并借助 NVIDIA 软件、服务和 AI 专业知识在全球云提供商网络中构建、定制和部署应用。

可用性

开发者可以注册抢先体验 NVIDIA DGX Cloud Lepton。

观看 NVIDIA 创始人兼首席执行官黄仁勋在 VivaTech 上的 NVIDIA GTC 巴黎主题演讲,并探索 GTC 巴黎会议内容