NVIDIA CEO 黄仁勋在 Snowflake 峰会上表示: “用 AI 创建数据飞轮”

在与 Snowflake 首席执行官的炉边谈话中,黄仁勋介绍了两家公司将如何帮助企业通过加速计算来处理数据,从而产生商业洞察。
by Rick Merritt

NVIDIA 创始人兼首席执行官黄仁勋在 Snowflake 数据云峰会上向数千名与会者表示,AI 让每家公司都有机会将其流程转变为数据飞轮。

位于台北的黄仁勋与位于旧金山的 Snowflake 首席执行官 Sridhar Ramaswamy 进行了一场线上炉边谈话。黄仁勋在谈话中表示,企业需要“把所有最重要的流程整合到数据飞轮中,并将其转化为企业的 AI,以推动这个飞轮进一步发展”。

两位高管介绍了 Snowflake AI 数据云与 NVIDIA AI 的结合将如何简化并加速企业 AI。

在 COMPUTEX 大会开幕前发表主题演讲后的第二天,黄仁勋表示:“你要尽快搭上这趟列车,绝不要看着它从你身边飞驰而过,因为它将深入改变业务或者带你进入新的业务领域。”

Snowflake 用户可以即刻使用 NVIDIA AI Enterprise

例如,企业将能够利用 NVIDIA AI Enterprise 软件平台中的 NVIDIA NIM 推理微服务,在数秒内部署以企业为中心的大语言模型(LLM)Snowflake Arctic。

Arctic 在 NVIDIA Tensor Core GPU 上训练而成,在 NVIDIA API 目录中提供,并由 NVIDIA TensorRT-LLM(加速生成式 AI 推理的软件)全面支持。

两家公司还将整合 Snowflake Cortex AINVIDIA NeMo Retriever,使企业用户可以打通 AI 驱动的应用与信息源,通过检索增强生成(RAG)获得更加精准的结果。

Ramaswamy 举出了几个使用 NVIDIA NeMo 框架和 Snowpark 容器服务开发的生成式 AI 应用示例。这些应用将在 Snowflake Marketplace 上提供,供数千家 Snowflake 客户使用。

Ramaswamy 表示: “NVIDIA 领先的加速计算为客户和我们自己的研究团队带来了翻天覆地的变化,利用这项技术我们为客户打造了最先进的 Artic 模型。”

如需更多信息,请观看 NVIDIA GTC 点播会议,了解 Snowflake 如何利用 RAG 架构构建聊天机器人以及如何将 LLM 用于生命科学领域