如何通过加速计算解决量子计算面临的重大挑战

NVIDIA CUDA-X 库将加速计算的强大性能引入量子计算领域
作者 Nicholas Harrigan

量子计算有望重塑各行各业,但其发展进程取决于能否攻克诸多关键难题,例如纠错、量子比特设计的模拟、电路编译优化任务等。这些都是推动量子硬件迈入实用阶段必须突破的瓶颈。

加速计算的出现为解决这些难题提供了可能。加速计算的并行处理能力,为实现当下及未来的量子计算突破提供了必要的算力支撑。NVIDIA CUDA-X 是量子研究的核心基础。从加快量子纠错的解码速度,到设计更大规模的量子比特系统,研究人员正借助 GPU 加速的工具来拓展经典计算的能力,推动实用型量子应用逐步走向现实。

使用 NVIDIA CUDA-Q QEC 和 cuDNN 加速量子纠错解码器

量子纠错 (QEC) 是处理量子处理器中固有噪声的关键技术。通过实时解码数据,研究人员将数千个存在噪声的物理量子比特提炼成少量无噪声的逻辑量子比特,并在错误出现时即时识别与修正。

在众多量子纠错方法中,量子低密度奇偶校验码 (qLDPC) 是最具前景的方案之一,它能够以较低的量子比特开销来减少错误。但其解码过程需要计算量巨大的传统算法,且要求极低的延迟与超高的吞吐量。

爱丁堡大学信息学院下属的量子软件实验室使用 NVIDIA CUDA-Q QEC 库开发了名为AutoDEC 的新型 qLDPC 解码方法,实现了解码速度与精度的双倍提升。该方法基于 CUDA-Q 的 GPU 加速的信念传播顺序统计解码 (BP-OSD) 功能开发,通过并行处理解码流程而提高了纠错成功率。

QuEra 的合作中,研究团队利用 NVIDIA PhysicsNeMo 框架与 cuDNN 库,成功开发出基于 Transformer 架构的 AI 解码器。AI 方法为未来量子计算机所需的更大距离编码提供了可行的、可扩展的解码方案——这类编码虽能提升纠错效果,但其计算成本极高。

AI 模型可通过预先训练和运行时高效推理来前置计算密集型工作负载。使用基于 NVIDIA CUDA-Q 开发的 AI 模型,QuEra 把解码速度提升了 50 倍,同时精度也获得提升。

通过 cuDF 优化量子电路编译

在不依赖量子纠错技术的情况下,提升算法性能的一种方法是将算法编译到处理器中质量最高的量子比特上。而将抽象量子线路中的量子比特映射到芯片上的物理量子比特布局的过程与“图同构”这一计算复杂度极高的问题密切相关。

NVIDIA 与 Q-CTRL 及 Oxford Quantum Circuits 合作,开发出一种名为 ∆-Motif 的 GPU 加速的布局选择方法。该方法在量子编译等涉及图同构的应用中实现了高达 600 倍的加速。为了扩展这种方法,NVIDIA 与合作者使用了 cuDF(一个 GPU 加速的数据科学库)来执行图操作,并根据物理量子芯片布局,使用预定义类型(又称”基元”)构建潜在的布局。

通过合并基元,可以并行地高效构建这些布局,从而首次在图同构问题中实现了 GPU加速。

使用 cuQuantum 加速高保真量子系统模拟

量子系统的数值模拟对于理解量子器件的物理特性、设计更优的量子比特至关重要。QuTiP 是一款得到广泛使用的开源工具包,也是分析量子硬件中噪声来源的核心工具。

QuTiP 的一个关键应用场景是开放量子系统的高保真模拟,例如模拟超导量子比特与量子处理器内其他组件 (如谐振器、滤波器) 的耦合状态,从而准确地预测器件行为。

QuTiP 与舍布鲁克大学及亚马逊云科技的合作,通过一个名为 qutip-cuquantum 的全新 QuTiP 插件实现了与 NVIDIA cuQuantum 软件开发套件的集成。亚马逊云科技为此次模拟提供了 GPU 加速的亚马逊弹性计算云 (Amazon EC2) 计算基础设施。研究人员在研究耦合谐振器的超导传输子量子比特时发现,这种模拟把大型系统的性能提升了高达 4000 倍。

了解更多关于 NVIDIA CUDA-Q 平台的信息。阅读 NVIDIA 技术博客,详细了解 CUDA-Q 如何推动量子应用研究。

当地时间 10 月 27 至 29 日,NVIDIA GTC D.C将举办多场量子计算主题会议,敬请关注。