量子神经网络:人工智能研究的新范式

https://www.toutiao.com/a6702017695618957832/

量子神经网络:人工智能研究的新范式

1 引言

近年来,机器学习技术快速崛起,已经成为大数据时代下的技术基石。机器学习根据已有数据进行学习策略的探索和潜在结构的发现,依据所得模型进行预测及预警。机器学习源于人工智能和统计学,其应用极其广泛,从数据挖掘到人脸识别,从自然语言处理到生物特征识别,从垃圾邮件分类到医学诊断,社会生活的各个方面都被机器学习技术所影响。随着信息技术不断发展,数据成爆炸式增长,这种增长不仅是数据量的增长,还包括数据种类、结构和产生速度上的增长。最近几年,全球数据量的增长率接近24%。以Google为代表,凭借数据服务为核心、机器学习技术为支撑的一大批IT公司占领数据挖掘与信息化的市场。它们掌握海量数据,使用机器学习技术挖掘潜在情报信息并提供数据服务,从而改变社会生活的各个方面。数据的增长不仅带来丰厚的利润,同时也带来技术上的挑战。不少传统机器学习算法已无法应对大数据时代海量数据的处理和分析,因此不得不寻找新的方法来解决问题。

早在古希腊时期,一些哲学家就给出了脑和思维过程的形而上的解释。到了20世纪,借助心理学和神经生理学的研究成果,分析神经建模逐渐引起了研究者的注意。20世纪50年代以来,随着心理学、神经科学、计算机信息科学、人工智能和神经影像学技术的发展,用自然科学方法探索人类意识的条件趋于成熟,世界各国不少学者开始投身于神经计算的研究,并取得不少有价值的研究成果。而量子计算和神经计算结合可能产生前所未有的解决问题的能力,如Shor算法可以以多项式的时间解决大数质因式分解问题,而大数质因式分解问题被认为是经典NP(Non Polynomial)问题。本文总结量子机器学习技术研究进展,分析量子神经网络模型以及对传统神经网络的性能提升,并指出未来可能的研究方向。

2 量子机器学习技术研究进展

目前,不少研究机构及大型IT公司都将目光集中到了量子计算上,想通过量子计算的独特性质,解决传统算法的运算效率问题。传统电子计算机存储电平的高低,每次只能处理一个比特的状态数据。量子计算机存储量子比特,一个量子比特可表示量子态|0>和|1>的叠加,一次运算就可同时处理两个状态的信息。以此类推,经典计算机对2n比特的数据执行相同计算需要2n次操作,而量子计算机只需要对n个量子比特进行一次操作即可。正因如此,量子计算不管在数据存储能力还是数据处理能力上都理论上远超经典计算。

早在1982年,Feynman指出基于量子力学建造的计算机对特定问题的求解是传统计算机无法比拟的。1994年,Shor提出了一种里程碑式的量子因子分解算法,称为Shor算法。计算步骤上,传统大数因子分解的最佳算法的时间复杂度随问题规模成指数倍增加,而Shor算法可在多项式时间内完成。1997年,Gorver提出一种量子搜索算法,该算法相比传统无序数据库搜索算法有着平方级效率的提升。现有的量子算法,大多相较于对应的经典算法有着明显提速效果。由此,研究学者猜想既然量子计算对特定经典问题的求解有显著提速,是否可将其应用到机器学习领域,解决目前处理大数据时计算效率低的问题。

美国著名科技媒体《连线》在2018年2月份刊登的一篇文章中分析了量子计算在机器学习系统中应用的优势、弊端以及现有范例,表示两者的结合或终将解决人工智能等诸多问题。近年来,出现越来越多量子计算和机器学习的结合研究。研究人员一方面希望通过量子计算解决机器学习的运算效率问题;另一方面,探索使用量子力学的性质,开发更加智能的机器学习算法。量子机器学习领域的研究最早可追溯到1995年对量子神经网络的研究:Kak最先提出量子神经计算的概念。随后研究人员提出了各类量子神经网络模型,如Behrman等人提出的基于量子点神经网络模型,Toth等人提出了量子细胞神经网络,Ventura等人提出的使用量子叠加态表示网络,Matsui等人提出了通过量子门电路实现的神经网络,Zhou等人提出了量子感知机,Schuld等人提出了由量子随机行走构建神经网络,等等。研究人员发现量子特性有助于研究无监督聚类问题,故提出了量子无监督聚类算法。2001年,Horn等人最早将量子力学特性引入传统聚类算法,其将薛定谔方程与Parzen窗估算量的极大值求解联系起来,用于发现数据的聚类中心。2013年,Lloyd等人将量子态的叠加性应用到经典向量表示上,提出量子K-means算法,该算法理论上能够实现海量数据的高效聚类。同年,Ameur等人提出了量子分裂聚类算法,其借助Grover变体算法进行子过程中最大距离的快速搜索。类似还有研究人员结合监督分类算法和量子计算,提出量子有监督分类算法,例如2014年,Microsoft公司的Wiebe等人提出了用量子态的概率幅表示经典向量,并通过比较两个量子态间距离完成量子最近邻算法。同年,Rebentrost等人首次提出使用量子系统的密度矩阵进行支持向量机中核矩阵的表示。2016年,Microsoft公司的Wiebe等人提出了量子深度学习的概念,首次将量子计算同深度学习相结合,其通过量子采样实现受限玻尔兹曼机的梯度估计,旨在加速深度网络的训练。上述量子机器学习算法的核心大多还是与传统算法相同,主要区别在于通过量子计算的高并行性去处理计算耗时的子步骤。

其他关于量子计算及机器学习核心问题的研究也进一步推动量子机器学习的发展。首先,Giovannetti等人于2008年提出了量子随机存取存储器(Quantum Random Access Memory, QRAM),随后许多量子机器学习算法相继产生,如2014年Lloyd等人基于QRAM提出量子主成分分析(Quantum Principle Component Analysis, QPCA)算法等。其次,Harrow等人于2009年,提出用量子算法解决线性系统的方程问题,被研究人员称为HHL算法;2015年,Childs等人也对该问题进行了相关研究,进一步拓展了量子算法对线性系统问题的解决能力。很多传统机器学习问题最终与最优化问题的求解相关,而最优化问题常涉及线性方程组的求解,所以通过该技术有助于经典机器学习中最优化步骤的提速。例如,Rebentrost等人在2014年提出的量子支持向量机,就用到了量子线性方程求解算法。很多算法是以QRAM物理实现为前提,利用QRAM实现任意量子态的制备,继而进行后续量子态计算。

对于量子机器学习的可学习性及其与经典算法的比较,也是研究人员的关注点之一。2004年,Servedio等人对传统机器学习算法的可学习性与量子算法的可学习性进行了分析与比较。随后,2006年,Ameur等人提出了在量子环境下完成机器学习任务的猜想。Yoo等人从二分类问题上对量子机器学习与传统机器学习进行了比较,指出量子的叠加性原理使得量子机器学习算法运算效率明显优于传统算法,并从学习的接受域上进行了比较,发现量子机器学习的接受域较大,从而决定了学习效率优于传统算法。随着大数据时代的到来,传统算法对于海量数据的处理能力,也日益捉襟见肘。这就进一步促使研究人员考虑量子机器学习对大数据问题的解决能力和可行性。这些研究工作,都进一步推动了量子计算在数据挖掘和数据分析方面的研究和应用。

以Google、Microsoft、IBM为首的科技巨头也纷纷投入量子计算领域的研究。2008年,Google公司的Neven及D-Wave公司的Rose等人在其研发的超导绝热量子处理器上使用量子绝热算法解决图像识别问题,此后他们又做了一系列将量子绝热算法应用到人工智能领域的研究。这一系列量子绝热算法没有通过量子门电路进行量子计算,而是运行在D-Wave研发的特定量子芯片上,并且其运行的环境条件也相对苛刻。目前他们研究的算法还有很多限制,其商业领域的实际应用还有一段距离,不过已经向量子机器学习的产业化应用迈出了坚实的一步。在2018年举行的第一届量子软件和量子机器学习国际研讨会(QSML)上,Google AI Quantum团队发布了Cirq的公开测试版,这是一款用于NISQ计算机的开源框架。Cirq专注于解决近期问题,帮助研究人员了解NISQ量子计算机是否能够解决具有实际重要性的计算问题。Cirq基于Apache 2许可发行,可以自由修改或嵌入到商业或开源的软件包中。Cirq可以在本地模拟器上运行这些算法,并可以轻松地与未来的量子硬件或更大规模的云端模拟器集成。该团队还发布了OpenFermion-Cirq,这是一个基于Cirq的应用程序示例,使用了近期算法。OpenFermion是一个为化学问题开发量子算法的平台,而OpenFermion-Cirq是一个开源库,将量子模拟算法编译成Cirq。该库利用了为量子化学问题构建低深度量子算法的最新进展,帮助用户将化学问题的细节转变为高度优化的可以在特定硬件上运行的量子电路。例如,该库可用于轻松构建量子变分算法,用以模拟分子和复杂材料的特性。Google公司的量子团队已经证明了量子计算能解决传统机器学习中的图像分类问题,而且随着技术的发展,量子计算机将在学习能力上超越经典的神经网络,此外,该团队最近还证明量子计算还可以解决经典网络中一些棘手问题,比如预防出现模型训练中的梯度消失问题。

3 量子神经网络模型

量子神经网络(Quantum Neural Network, QNN)是由量子物理学与数学、计算机科学、信息科学、认知科学、复杂性科学等多学科交叉而形成的一个全新的研究领域,量子神经网络是传统神经计算系统的自然进化,它充分利用量子计算的巨大威力,提升神经计算的信息处理能力。因此,量子神经网络研究为量子计算与神经计算的结合提供了有益的支持。已有研究成果表明,人脑处理信息的过程可能与量子现象有关(即量子意识或量子思维),通过比较分析,量子系统的演化与人脑信息处理过程之间的可能关系为:

(1)量子系统是所有物理过程的微观基础,同样也应该是生物和心理过程的基础,即大脑工作的基础;

(2)量子系统的概念超出了物质中有关粒子波相互作用以及场的划分,它综合表现为一种不可分的并行分布式处理系统,是用来描述人脑作用整体性的比较合适的候选者之一;

(3)人脑作用源于复杂的系统动力学,并非传统人工神经网络(Conventional Artificial Neural Network, CANN)所能完全描述,而量子系统具有与生物神经网络相似的动力学特征,因此将人工神经网络(Artificial Neural Network, ANN)与量子理论结合起来会更好地模拟人脑的信息处理过程;

(4)计算机硬件的发展存在极限。当集成电路的线宽继续缩小下去,Moore定律将会失效,门和连线仅包含几个原子,量子效应就会出现并且发挥重要的作用,现有芯片设计工艺已达到10 纳米,预计2020 年到达2 纳米。这个级别上的晶体管只能容纳10 个原子,量子效应开始影响电子的正常运动,那时就不得不涉及到量子计算。同样道理,神经计算的量子推广也是神经网络发展的必然趋势,因为两者之间存在着某些本质上的联系。

量子神经网络:人工智能研究的新范式

量子神经网络(QNN)模型,摘自“Classification with Quantum Neura

量子神经网络:人工智能研究的新范式

量子神经网络训练,摘自“Barren Plateaus in Quantum Neural Netw

虽然目前量子神经计算的研究还处于起步阶段,其理论远未成熟,但已有的理论分析和应用已经证明, 与传统的神经计算比较,量子神经网络模型至少在以下几个方面具有明显的优势:(1)指数级的记忆容量;(2)神经网络采用少的隐层神经元却能有更高的性能;(3)学习速率快;(4)消除了灾变性的失忆现象;(5)单层网络可以解决线性不可分问题;(6)处理速度快(1010bits/s);(7)规模小、稳定性和可靠性高;(8)处理的模式数或图像数目比较大。这些优势为创建超大容量、超高速新型信息处理系统提供了强大的信息处理能力,而且有助于重新理解智力和人脑的功能。因此,随着量子机器学习理论、特别是量子神经网络技术的不断成熟和完善,更多巧妙结合物理原理和机器学习理论的新型算法的提出,量子机器学习将极大促进现有机器学习的发展,产生出更加高效、强大的新算法、新技术以及新的计算平台。

4 结束语

人工智能已被认为是继互联网之后新一代革命性技术,人工智能算力需求随着数据量的急剧增长,在摩尔定律近乎失效的情况下,基于现有的计算能力,在如此庞大的数据面前,人工智能的训练学习过程将变得无比漫长,甚至完全无法实现最基本的功能,而量子神经网络为解决大数据时代人工智能发展所面临的问题提供了一种创新的研究思路。

猜你喜欢

转载自blog.csdn.net/weixin_42137700/article/details/91944363