导语
近年来,人工智能(AI)和量子计算(Quantum Computing, QC)两大前沿技术正逐步交汇,催生了一系列量子机器学习(Quantum Machine Learning, QML)新算法。然而,受限于量子计算的独特概念和不同于经典机器学习的数学框架,AI 研究者往往难以快速入门。
近日,来自 南洋理工大学计算与数据科学学院(NTU)、新加坡国立大学量子技术中心(CQT)、鸿海研究院(Hon Hai Research Institute) 的研究团队发布了一篇专为 AI 研究者与开发者 设计的 QML 教程,论文地址:Quantum Machine Learning: A Hands-on Tutorial for Machine Learning Practitioners and Researchers(https://arxiv.org/pdf/2502.01146)。本教程首次从 AI 视角 出发,系统介绍了 QML 的基础理论、关键算法、实践指南,并提供了代码示例,助力 AI 社区迈向量子计算时代!
扫码查看
研究领域:人工智能,量子计算基础,量子机器学习,量子核方法,量子神经网络,量子 Transformer
Yuxuan Du | 作者
江千月 | 审校
论文题目:
Quantum Machine Learning: A Hands-on Tutorial for Machine Learning Practitioners and Researchers
论文地址:
https://arxiv.org/pdf/2502.01146
图注:教程论文首页以及主要内容框架。
一、为什么 AI 研究者应该关注 QML?
1. 计算范式的转变:从经典到量子 AI
人工智能的发展依赖于计算能力的提升,然而随着神经网络规模的不断扩展,摩尔定律逐渐失效,传统计算架构难以支撑更大规模的 AI 模型训练。QML 通过 量子纠缠与叠加协同作用 提供全新的计算模式,使 AI 能够在高维空间中学习复杂数据模式。
图注:经典计算与量子计算对比
2. 计算优势
人工智能面临的许多核心挑战,如高维数据建模、优化问题、图分析、以及大模型的训练和推理,往往受到经典计算范式的限制。量子计算不仅仅提供计算加速,还在计算复杂度、样本复杂度(sample complexity)、查询复杂度(query complexity)等多个层面展现出优势。
图注:量子机器学习模型的可学习性。
( 1 ) 计算复杂度的优化
量子奇异值变换(Quantum Singular Value Transformation, QSVT)作为量子计算的核心工具,为优化问题、矩阵计算和机器学习任务提供了突破性的计算效率提升。它能够高效地执行矩阵函数变换,使得某些问题的计算复杂度从经典的指数级缩减到多项式级别,为高维数据处理带来前所未有的可能性。
( 2 ) 样本复杂度与泛化能力
QML 的另一个关键优势在于 量子特征映射(Quantum Feature Mapping),它能够将数据嵌入到高维希尔伯特空间,使得复杂模式更加容易被学习。这种方法减少了训练所需的数据量,提高了模型的泛化能力,尤其适用于小样本学习任务。
( 3 ) 查询复杂度的降低
量子计算可以减少某些任务的查询次数,提高数据检索和优化问题的效率。例如,Grover 搜索算法在无序数据库中的查询复杂度降低到经典方法的平方根级别,在搜索、强化学习探索策略优化等任务中具有显著优势。
( 4 ) 实际可用性
随着硬件技术的进步,如更长的量子相干时间、更低的噪声水平和更稳定的纠错机制,量子计算机的实用性正逐步提升。然而,在评估 QML 的真正价值时,仅仅考虑理论上的计算加速是不够的,我们还需要关注 practical utility,即在当前 噪声量子计算机(Noisy Intermediate-Scale Quantum, NISQ) 的硬件条件下,能否运行那些在理论上具有量子优势的算法。由于这些 NISQ 设备的量子比特数量大、噪声高,经典计算机很难高效模拟,这促使研究人员探索 QML 在某些实际问题上的经验性优势(empirical advantage),即是否可以利用现有量子计算机实现比经典计算更好的实验结果。
3. 量子计算的进展
图示:不同量子公司常见的量子架构和发展路线图。
2024 年,Google Quantum AI 团队展示了 105 量子比特的 Willow 计算平台,该平台基于超导量子比特技术,改进了量子门保真度并增强了纠错能力。此外,Quantinuum 也推出了 H-Series 处理器,基于离子阱技术,展现了更长的相干时间和更高的门保真度。目前其 H2 芯片拥有全链接的 56 量子比特 . QuEra 基于中性原子技术制备了 156 量子比特的芯片。PsiQuantum 在光子量子计算方向取得重要突破,推动光子芯片集成化进展,使大规模光量子计算成为可能。
NVIDIA 进一步加强了 量子 - 经典混合计算模拟,提供更高效的模拟框架,使研究人员能够在经典硬件上更快地优化和测试 QML 算法。这些不同量子计算体系的进展表明,尽管各技术路线仍在竞争,但整体量子计算生态系统正在快速成熟。本教程所涵盖的 QML 方法,正是基于这些硬件的发展进行设计,并针对不同硬件体系提出相应的 QML 研究思路。
4. 为什么 QML 需要 AI 背景的研究者?
随着量子计算技术的成熟,量子机器学习的研究方向正在从理论探索向实际应用转变。QML 需要 AI 领域的研究者,因为他们能够提供 系统化、工程化、规模化 的方法论,而这些正是当前 QML 研究所缺乏的。
图注:QML 的不同研究方向。根据量子系统(Q)与经典系统(C)的相互关系分为四类:
Q for Q:针对量子数据的量子算法。
Q for C:针对经典数据的量子算法。
C for Q:针对量子数据的经典算法。
C for C:针对经典数据的经典算法。
本教程主要关注于 Q for C 类别。QML 还可以根据学习任务、学习范式以及应用进行分类。
( 1 ) 推动 QML 的系统化与标准化
AI 研究者擅长建立完整的机器学习训练流程,包括数据预处理、模型设计、超参数优化等。他们的加入将有助于 QML 领域建立系统化的训练流程,优化数据表示方式,并探索更具可扩展性的量子算法。
( 2 ) 实现 QML 的工程化落地
当前 QML 仍处于实验性阶段,而 AI 领域的发展已经积累了丰富的工程经验,例如大规模模型训练、分布式计算、自动化实验管理等。AI 研究者可以将这些工程经验引入 QML,使其能够更快地从实验室走向实际应用。
( 3 ) 促进 QML 在大规模 AI 任务中的应用
AI 研究者熟悉如何在大规模数据集上训练和优化模型,而 QML 目前仍缺乏在真实任务上的大规模实验。随着 AI 的发展,AI 研究者可以帮助 QML 研究找到更具现实意义的应用场景,并评估量子计算是否能在这些场景中提供实质性的计算优势。
二、本教程的主要内容
本教程围绕 五大核心章节,系统梳理 QML 从基础到应用的完整框架 , 涵盖了可在容错量子计算机和现有量子计算机实现的代表性 QML 算法。
1. 量子机器学习概述(Chapter 1)
介绍 QML 的研究背景、发展历程、当前挑战以及量子计算对机器学习的潜在影响。本章提供了对整个 QML 领域的高层次概览,并讨论了 QML 的核心问题和未来发展方向。
2. 量子计算基础(Chapter 2)
涵盖 经典比特 vs 量子比特、量子门操作、量子测量、量子线性代数 等核心概念,并通过代码示例展示 如何将经典数据转换为量子态。此外,本章总结了当前量子计算的最新进展,并探讨了实现量子缓存等关键开放问题。
3. 量子核方法(Chapter 3)
经典实现:支持向量机(SVM)与经典核方法的数学框架。
量子实现:量子特征映射(Quantum Feature Mapping)与量子核计算。
理论分析:QML 在高维希尔伯特空间中的表现力及泛化能力,以及潜在的量子优越性。
代码实现:基于 MNIST 数据集的量子分类任务。
研究进展与开放问题:当前量子核方法在实验验证中的挑战、在实际任务中的适用性及未来的发展方向。
4. 量子神经网络(Chapter 4)
经典实现:感知机、深度神经网络(DNN)。
量子实现:基于容错的量子感知机(Quantum Perceptron)、可在近期量子设备上实现的量子神经网络(Quantum neural network, QNN)用以解决回归和生成任务。
理论分析:QNN 的可训练性(Trainability)与梯度消失问题 , QNN 的表达能力分析,QNN 的泛化性证明。
代码实现:如何在 PennyLane 中训练一个用以分类的 QNN 和生成对抗网络(QGANs)?
研究进展与开放问题:QNN 目前的计算优势验证情况、参数优化问题,以及在更复杂架构上的可行性。
5. 量子 Transformer(Chapter 5)
经典实现:Transformer 及其在 NLP 领域的应用。
量子实现:如何在容错量子计算框架中实现自注意力机制并取得在推理阶段的加速?
理论分析:量子 Transformer 是否能实现超越经典 Transformer?
研究进展与开放问题:当前量子 Transformer 的研究现状、硬件实现的限制,以及可能的应用场景。
三、如何使用本教程,如何进阶?
本教程适用于希望学习 QML 的 AI 研究者、开发者以及对量子计算感兴趣的从业人员。为了更好地利用本教程,我们建议学习者具备一定的数学和机器学习基础,包括 线性代数、概率论、机器学习(ML)和深度学习(DL) 的核心概念。
为了更高效地掌握 QML,我们建议按照不同的学习目标选择合适的路线:
1. 共同基础:熟读 Chapter 1 和 Chapter 2
无论是理论研究者还是实践应用者,学习 QML 的第一步都需要掌握 量子计算基础(Chapter 2)。此外,Chapter 1提供了 QML 的背景、发展现状和未来方向,对于理解 QML 研究的整体框架至关重要。
2. 理论派学习路径
适合希望深入研究 QML 算法原理、数学证明以及量子计算复杂性理论的学习者。
重点学习内容:
深入阅读 Chapter 3-5 的理论部分,理解量子核方法(Quantum Kernels)、量子神经网络(QNN)、量子 Transformer 的数学基础。
关注 QML 的可证明计算优势以及理论性质刻画等。
阅读章节末尾的前沿研究进展与开放问题,跟进 QML 领域的最新理论发展。
可跳过内容:
代码实现部分,除非需要验证理论推导的实验支持。
3. 实践派学习路径
适合希望在 QML 领域进行应用开发、实验研究和量子编程的学习者。
重点学习内容:
专注于 Chapter 3-5 的代码实现部分,包括如何使用 PennyLane、Qiskit 进行 QML 训练。
学习 QML 算法在真实数据集上的应用,如 MNIST 分类、量子神经网络优化。
探索如何在 现有 NISQ 设备 上运行 QML 任务,提升量子电路的训练稳定性。
可跳过内容:
复杂的数学推导和计算复杂性分析,除非涉及量子电路优化。
通过选择合适的学习路线,研究者可以更快地掌握 QML 的关键知识,并根据自身需求深入探索理论或实践方向。
4. 进阶方向:如何将 QML 应用于实际问题?
对于希望在 QML 领域进一步研究或开发的学习者,建议关注以下几个方向:
优化 QML 算法:提出新的适配于最新量子芯片的 QML 范式、提升 QML 模型的训练稳定性以及效率等。
结合 NISQ 硬件:探索如何在当前的量子计算机上运行更高效的 QML 任务。
应用落地:在计算机视觉、自然语言处理、金融建模等领域测试 QML 模型的 practical utility 以及 quantum advantages。
通过循序渐进的学习与实践,研究者可以更好地理解 QML,并逐步进入前沿研究或实际应用开发。
获取教程:Quantum Machine Learning: A Hands-on Tutorial for Machine Learning Practitioners and Researchers:https://arxiv.org/pdf/2502.01146
在线版教程(代码示例在最后一节 Code Examples):https://qml-tutorial.github.io/
加大圣迭戈分校:量子力学
2022 年诺贝尔物理学奖授予了关于量子信息科学的基础性研究。一百多年前,量子革命为我们带来了晶体管和激光,今天,操作纠缠粒子的技术正在让我们进入一个新的量子信息时代。集智俱乐部长期关注量子科学及其在前沿交叉领域的应用,包括量子力学与机器学习、量子生物学、量子因果、量子金融等,并沉淀了一系列相关主题的文章和学习资料,参见 "物理主题文章合集" 与 "量子世界地图"。欢迎感兴趣的朋友和我们一起探索!
详情请见:尤亦庄:Quantum Mechanics | 英文系列课程
AI+Science 读书会
AI+Science 是近年兴起的将人工智能和科学相结合的一种趋势。一方面是 AI for Science,机器学习和其他 AI 技术可以用来解决科学研究中的问题,从预测天气和蛋白质结构,到模拟星系碰撞、设计优化核聚变反应堆,甚至像科学家一样进行科学发现,被称为科学发现的 " 第五范式 "。另一方面是 Science for AI,科学尤其是物理学中的规律和思想启发机器学习理论,为人工智能的发展提供全新的视角和方法。
集智俱乐部联合斯坦福大学计算机科学系博士后研究员吴泰霖(Jure Leskovec 教授指导)、哈佛量子计划研究员扈鸿业、麻省理工学院物理系博士生刘子鸣(Max Tegmark 教授指导),共同发起以"AI+Science" 为主题的读书会,探讨该领域的重要问题,共学共研相关文献。读书会已完结,现在报名可加入社群并解锁回放视频权限。
详情请见:
登录后才可以发布评论哦
打开小程序可以发布评论哦