科学家阐释纯量子AI算法理论,或极大提升生化及图文领域模型性能

“据我们所知,这是中国大陆高校团队在 Nature Communications 发表的第一篇纯量子人工智能理论论文。”针对自己和武汉大学团队合作的新成果,新加坡南洋理工大学杜宇轩博士表示。

图 | 杜宇轩(来源:杜宇轩)

论文中,他和武汉大学罗勇教授课题组描述了预测误差和纠缠程度,所涉及到的数学理论分析,或可用于研究量子机器学习的理论。

很多业内人士都认为,量子计算机能带来革命性的应用,能在诸多方面取代或协助现有的经典计算体系。

而本次成果刻画了量子人工智能算法理论,对于所有的量子人工智能算法的设计都能带来一定指导。

首先,在化学材料和生物研究领域,本次成果能够帮助人们设计更加有效的量子人工智能算法,从而用于分类不同的分子结构。

预计这将极大促进化学材料和医药分子结构的设计和优化。例如,通过更精确地分类和识别物质的相变,将能加速开发性能更优的材料或药物。

其次,本次成果对于文本、语言和图像处理等也具有重要应用前景。

它能指导人们设计更加高效的量子人工智能算法,从而加速模型训练和降低能耗,或能以更少的样本量达到更好的预测效果。

例如,在图像识别和自然语言处理领域,量子人工智能算法有望显著提高模型的准确性和效率,从而提升各类智能应用的性能。

(来源:Nature Communications)

从费曼和“没有免费的午餐”定理说起

在当前,算力决定着社会的生产力,因此不断追求高算力的计算设备,是人类保持高速发展的核心途径之一。

而经典计算尤其是基于硅芯片的经典计算,已经进入后摩尔时代。

因此,如何研制新型计算设备以保持算力的稳步增长,成为学界和业界十分关心的问题。

作为下一代计算设备备受瞩目的架构之一,量子计算受到了巨大关注。

量子计算机由诺贝尔物理学奖得主理查德·费曼(Richard Phillips Feynman)提出,核心思想在于利用量子计算机来模拟微观粒子的行为,相比传统计算机它能实现指数级的加速。

经过长达半个世纪的探索,人们发现量子计算机不仅在模拟物理系统上具有优势,⽽且在各类计算问题中也具备不少的优势。

例如,在大数分解任务中,量子计算机可以在多项式时间内完成。而传统计算机则需要指数级的时间。

凭借这些优势,近年来学界和业界都在密切关注量子计算机的硬件发展和算法应用,尤其是如何通过设计高效的算法,来充分利用量子计算机的优势。

当前量子计算机的量子比特数,尽管已经远远超越超级计算机暴力模拟的极限,但是由于不可避免的系统噪声问题,其所允许的线路深度和算法复杂度仍然有限。

因此,如何利用现有的量子设备来实现相关应用,成为业内备受关注的问题。

在这些可能实现的应用中,量子人工智能(或量子机器学习)被认为是最有潜力的应用之一。

自 1994 年美国计算机科学家彼得·秀尔(Peter Williston Shor)提出量子大数分解算法以来,量子算法领域迎来了持续的发展。

在人工智能领域,2008 年美国麻省理工学院团队提出量子线性求解器方法,从理论角度证明该方法相比经典方法能够实现指数级的加速。

近年来,量子人工智能算法获得了质的飞跃。在算法层面,人们开始关心如何与现有量子硬件耦合,即如何利用已有的量子资源,来设计适配于量子硬件的算法。

据介绍,该团队的研究主要围绕量子计算与人工智能的结合,分为两个层面:

其一,针对不同实际任务设计相应的量子人工智能算法,并确保这些算法具备在现有量子计算机上执行的可行性。

其二,在理论角度分析量子人工智能算法能力的上限与下限,阐明相关算法在哪些任务上具有量子优越性,例如在运算时间、能耗和样本量上取得显著提升。

本次研究则属于上述研究目标的第二类。

2018 年,IBM 首次利用其量子云平台实现了基于量子版本的支持向量机模型的数据分类。

2021 年,杜宇轩所在团队与中国科学技术大学潘建伟院士团队合作,在一款自研的超导量子计算机上,成功打造一款量子人工智能生成模型,并首次利用量子计算机生成了手写数字图像。

而量子叠加效应与量子纠缠效应,长期以来被认为是量子人工智能能否超越经典人工智能算法的两大核心因素。

虽然业内普遍认为量子纠缠的引入越多,算法的优越性越明显。但是,在本次工作之中杜宇轩等人针对这一观点提出了质疑。

并在人工智能领域的核心定理之一“没有免费的午餐”定理的框架之下,进行了理论研究。

所谓“没有免费的午餐”的定理,指的是没有任何一种机器学习算法适用于所有情况。某一款机器学习算法也许在某个领域好用,但在另外一个领域可能并不好用。

(来源:Nature Communications)

国内业界裁撤量子部门,课题一度遭遇波折

而其实在本次研究开始之前,领域内已经有 1-2 篇关于量子机器学习与“没有免费的午餐”定理相结合的论文,但在杜宇轩看来这些成果并不完善。

举例来说,由于观测量子态的次数有限,因此量子计算是一种概率型计算。

但是,之前的研究结果都建立在确定型计算(即假设观测次数无限),因此并不符合实际情况。

这引发了课题组针对“没有免费的午餐”定理在量子人工智能框架下的深入思考:

首先,在观测量子态的次数有限的情况之下,如何利用“没有免费的午餐”定理,来刻画经典机器学习与量子机器学习能力的差别?

其次,如何利用“没有免费的午餐”定理,来刻画量子计算的纠缠、叠加、相干等独特特点对于量子机器学习模型能力的影响?

由于这是一项理论研究,所以更多地依赖于数学分析技巧。

同时,由于量子机器学习理论的研究历史非常短,因此量子机器学习理论中的现有数学分析工具,并不足以直接回答课题组所关心的核心问题。

为此,他们借用量子信息理论和经典统计学习理论的交叉方法,将机器学习、量子信息论和量子人工智能理论三大领域加以融合,借此获得了比较满意的理论结果。

而在撰写论文时,他们删去了已经写好的与纠缠对偶效应无关的内容。

修改之后论文的脉络变得更加清晰,也能更展示量子纠缠效应对于量子人工智能模型性能的多元化影响。

而这种多元化的影响与所允许的观测次数高度相关。当观测次数足够多时,它会对量子人工智能模型产生正相关作用,反之则会导致量子人工智能模型能力出现退化。

投稿过程中针对审稿人的意见,课题组在回复中表示:本次工作并非着眼于一般性的量子神经网络性能研究,而是基于奥卡姆剃须刀原理和“没有免费的午餐”定理(即人工智能的两大公理),来刻画纠缠效应对量子人工智能模型能力的影响。

因此,这些结果是与数据和优化器毫无关系,故更加具备深层次和广义性。

而在本次研究期间,国内工业界对于量子计算的布局均发生了调整,比如裁撤量子部门或更加注重量子技术的商业化落地和产品化,而非继续关注基础理论的探索。

“这在某种程度上增加了我们这项工作的推进难度。例如,我们论文的第一作者不得不辞去实习生的身份,回到学校继续研究本次课题。”杜宇轩表示。

好在最终论文得以顺利发表在 Nature Communications[1],论文题为《纠缠数据在量子机器学习中的过渡作用》(Transition role of entangled data in quantum machine learning)。

武汉大学博士王新彪是第一作者,南洋理工大学的陶大程教授和杜宇轩博士、以及武汉大学罗勇教授担任共同通讯作者。

图 | 相关论文(来源:Nature Communications)

目前,课题组已经启动下一步研究。

总的来说,其打算通过更深入的理论研究和算法优化,提升量子计算在应用中的性能和效率。

在理论研究上:

他们正在探索是否可以利用“没有免费的午餐”定理来刻画量子计算的优越性。目前,新的论文已经在预印本网站上发表。

在这篇新论文之中,他们证明在研究量子态的演化时,基于量子内存建立的量子人工智能算法,比经典方法具有显著的复杂度优势。

基于此,他们准备将“没有免费的午餐”定理推广到更一般的情形。

而本次发表在 Nature Communications 的论文主要关注在理想环境中的理论刻画,但是他们也希望研究在开放体系中,量子算法的优越性是否与其内凛的纠缠度存在正相关。

在算法设计上:

目前的研究表明,当使用现有的量子云平台运行算法时,测量次数需要进行精确的规划。

因此,该团队下一步的算法研究目标是:给定一个量子人工智能算法,从而以动态高效的方式,匹配其测量次数和内部纠缠度。

以此来确保在现有纠缠度之下,算法不会被测量次数所限制,从而能够充分发挥其优势。

另据悉,杜宇轩本科毕业于四川大学。后在澳大利亚悉尼大学获得硕士学位和博士学位,师从澳洲科学院院士、欧洲科学院院士、ACM Fellow、IEEE Fellow 陶大程教授。

“我是陶大程教授团队里第一个研究量子人工智能方向的学生。博士毕业后,我于 2021 年跟随陶老师加入京东探索研究院,并由我负责量子人工智能团队。”杜宇轩说。

“同时,我也是京东的博士管培生,每年只有不到 50 人能获得这一机会。”他继续说道。

2024 年初,由于个人规划与公司技术战略理念的差异,杜宇轩选择离开京东。

目前,他在南洋理工大学进行访问研究,专注于量子人工智能的研究。

截止当下,杜宇轩已经发表 30 多篇论文(包含 13 篇一作论文)。

通过这些研究,他曾首次利用统计学习理论中的覆盖数,来刻画量子神经网络的表达能力和泛化能力,并提出了自动化量子神经网络设计框架。而在未来,他也将继续在量子人工智能领域深耕下去。

热门相关:重生之悠然人生   致命的诱惑   女王嫁到:老公,太凶了   隐婚101天:唐少宠妻成瘾   国民校草求抱抱