随着 AI 原生应用扩展到更多用户、智能体和设备,电信正成为下一个 AI 分发的前沿领域。
在 NVIDIA GTC 2026 上,美国和亚洲的领先运营商宣布正在构建 AI 网格,即地理分布且互联的 AI 基础设施,将利用其网络覆盖优势,在分布式边缘端提供并变现全新 AI 服务。
不同运营商正采取不同路径:许多供应商从激活现有有线边缘站点入手,将其作为 AI 网格来实现当下的商业化;另一些则借助 AI-RAN 技术,将 AI 完全集成到无线接入网中,使其同时作为工作负载和边缘推理平台。
电信公司和分布式云提供商运营着全球最庞大的基础设施之一:全球约有 10 万个分布式网络数据中心,覆盖区域中心、移动交换局和中心局。随着时间的推移,其富余电力足以提供超过 100 亿瓦的新增 AI 能力。
AI 网格将现有的空间场地、电力和连接能力转化为地理分布式计算平台,使 AI 推理更靠近用户、设备和数据,从而实现最佳响应速度与单 Token 成本对齐。这不仅是基础设施升级,更是 AI 交付方式的结构性变革:电信网络不再仅承载流量,而是成为 AI 规模化的核心。
全球运营商将分布式网络转化为 AI 网格
六大主要运营商正推动 AI 网格从概念走向现实:
AT&T 作为 IoT 领域的领导者,拥有超 1 亿个 IoT 连接,覆盖数千种设备类型。该公司正与思科和 NVIDIA 合作,构建面向 IoT 的 AI 网格。通过在专用 IoT 核心上运行 AI,并将 AI 推理能力移动至数据生成源头,AT&T 可支持关键任务型实时应用。比如在与 Linker Vision 合作的公共安全场景中,可实现更快检测、告警与响应,同时确保客户可在网络边缘端实现对敏感信息的掌控。
AT&T Business 产品高级副总裁 Shawn Hakl 表示:“扩展对企业和开发人员而言高度安全又易于获取的 AI 服务,是我们 IoT 连接战略的核心。通过结合 AT&T 的企业级连接、本地化 AI 计算与零信任安全机制,并与 NVIDIA 初创加速计划会员及思科合作,借助基于 NVIDIA 基础设施及思科 Mobility Services Platform 的思科 AI 网格,我们正将实时 AI 推理带到数据源头,加速数字化转型并释放新商机。”
Comcast 正将其全美最大规模的低延迟宽带网络之一,转化为可提供实时、超个性化体验的 AI 网格。与 NVIDIA、Decart、Personal AI 和 HPE 的合作验证表明,该 AI 网格即使在需求高峰期间,也能以更高吞吐量和更低每 Token 成本,保证对话智能体、互动媒体和 NVIDIA GeForce NOW 云游戏的响应速度与经济性。
Spectrum 拥有覆盖 5 亿设备、延迟低于 10 毫秒的网络基础设施,可支撑包含 1,000 多个边缘数据中心、数百兆瓦算力的 AI 网格。初期部署重点是借助嵌入在其 Spectrum 光纤驱动、低延迟网络中的远程 GPU,为媒体制作渲染高分辨率图形。
Akamai 正构建全球分布式 AI 网格,将 Akamai Inference Cloud 扩展至 4,400 多个边缘节点,部署数千块 NVIDIA RTX Blackwell 服务器版本 GPU。其 AI 网格编排平台可根据每个请求匹配与其适配层级的算力,在降低推理 Token 成本的同时,为游戏、媒体、金融和零售等应用提供低延迟的实时 AI 体验。
Indosat Ooredoo Hutchison 正将其主权 AI 工厂与印尼各地的分布式边缘及 AI-RAN 站点连接,构建服务于本地创新的 AI 网格。通过在印尼境内网格上运行基于印尼语的 Sahabat-AI 平台,Indosat 能将本地化 AI 服务带给分布在数千岛屿的数亿用户,并为当地开发者和初创企业提供一个快速、符合文化背景且在设计之初即合规的 AI 应用。
T-Mobile 正与 NVIDIA 合作,探索基于 NVIDIA RTX Blackwell 服务器版本 GPU 的边缘 AI 应用,展示了分布式网络站点如何支持新兴的 AI-RAN 及边缘推理用例。LinkerVision、Levatas、Vaidio、Archetype AI 和 Serve Robotics 等开发者已在该网格上试点智慧城市、工业和零售应用,将摄像头、配送机器人和城市级智能体连接至网络边缘的实时智能。这证明了基站和移动交换局可在持续提供先进 5G 连接的同时,支撑分布式边缘 AI 工作负载。
新一代 AI 原生服务激活电信 AI 网格
AI 网格正成为新一代 AI 原生应用的基础,这些应用具备实时、超个性化、高并发和高 Token 密集度等特征。
Personal AI 借助 NVIDIA Riva 在 AI 网格上运行人类级对话智能体。通过在离用户更近的地方部署小型语言模型,实现端到端延迟低于 500 毫秒、每 Token 成本降低 50% 以上,使语音交互既自然又具备规模化经济可行性。
Linker Vision 在 AI 网格上运行实时视觉 AI,变革城市管理。通过在分布式边缘站点处理数千路摄像头视频流,为实时检测与即时告警提供了可预测的低延迟,从而构建更安全、更智慧的城市。其交通事故检测速度提升达 10 倍,灾害响应速度提升达 15 倍,并能针对人群异常行为实现分钟级以内的告警。
Decart 通过将实时视频生成引入 AI 网格,重新定义超个性化分布式媒体。通过在网络边缘运行其 Lucy 模型,实现低于 12 毫秒的网络延迟,使互动视频流和 Overlay 能即时适配每位观众,在观看高峰期仍能提供流畅、沉浸的直播体验。
AI 网格参考设计与生态系统
NVIDIA AI 网格参考设计定义了在分布式站点部署与编排 AI 所需的核心组件,包括 NVIDIA 加速计算、网络与软件平台。
日益壮大的生态系统正推动解决方案落地:思科等全栈合作伙伴,以及 HPE 等基础设施合作伙伴,正基于 NVIDIA RTX Blackwell 服务器版本 系统构建 AI 网格解决方案;Armada、Rafay 和 Spectro Cloud 等合作伙伴致力于打造 AI 网格控制平面,实现跨分布式 AI 基础设施上工作负载的无缝编排。
思科运营商移动业务高级副总裁兼总经理 Masum Mir 表示:“物理 AI 正加速从集中式智能向网络边缘的分布式决策转变。我们与 NVIDIA 的合作整合了全栈能力——从 NVIDIA GPU 到思科的网络与移动能力——助力运营商能够支撑关键任务应用,交付实时推理,并参与 AI 价值链。”
该生态系统正共同助力电信公司与分布式云提供商重塑其在 AI 价值链中的角色,将网络边缘转变为统一的智能层,用于运行、扩展并变现 AI 工作负载。
了解更多关于 AI 网格的信息。
