量子计算的特性汇总十篇

时间:2024-02-05 11:33:15

量子计算的特性

量子计算的特性篇(1)

虽然中国高性能计算已经取得了里程碑性的成绩,但是科研工作者的脚步不会停止。他们已经在思考未来的发展方向在哪里,并将目光瞄向了“天然的超级计算机”―量子计算机。

“杞人忧天”的物理学家们与量子计算机的诞生

量子计算机的诞生和著名的摩尔定律有关,还和“杞人忧天”的物理学家们有关。

众所周知,摩尔定律的技术基础是不断提高电子芯片的集成度(单位芯片的晶体管数)。集成度不断提高,速度就不断加快,我们的手机、电脑就能不断更新换代。

20世纪80年代,摩尔定律很贴切地反映了信息技术行业的发展,但“杞人忧天”的物理学家们却提出了一个“大煞风景”的问题: 摩尔定律有没有终结的时候?

之所以提出这个问题,是因为摩尔定律的技术基础天然地受到两个主要物理限制。

一是巨大的能耗,芯片有被烧坏的危险。芯片发热主要是因为计算机门操作时,其中不可逆门操作会丢失比特。物理学家计算出每丢失一个比特所产生的热量,操作速度越快,单位时间内产生的热量就越多,算机温度必然迅速上升,这时必须消耗大量能量来散热,否则芯片将被烧坏。

二是为了提高集成度,晶体管越做越小,当小到只有一个电子时,量子效应就会出现。此时电子将不再受欧姆定律管辖,由于它有隧道效应,本来无法穿过的壁垒也穿过去了,所以量子效应会阻碍信息技术继续按照摩尔定律发展。

所谓隧道效应,即由微观粒子波动性所确定的量子效应,又称势垒贯穿。它在本质上是量子跃迁,粒子迅速穿越势垒。在势垒一边平动的粒子,当动能小于势垒高度时,按照经典力学的说法,粒子是不可能越过势垒的;而对于微观粒子,量子力学却证明它仍有一定的概率贯穿势垒,实际上也的确如此。

这两个限制就是物理学家们预言摩尔定律会终结的理由所在。

虽然这个预言在当时没有任何影响力,但“杞人忧天”的物理学家们并不“死心”,继续研究,提出了第二个问题:如果摩尔定律终结,在后摩尔时代,提高运算速度的途径是什么?

这就导致了量子计算概念的诞生。

量子计算所遵从的薛定谔方程是可逆的,不会出现非可逆操作,所以耗能很小;而量子效应正是提高量子计算并行运算能力的物理基础。

甲之砒霜,乙之蜜糖。它们对于电子计算机来说是障碍的量子效应,对于量子计算机来说,反而成了资源。

量子计算的概念最早是1982年由美国物理学家费曼提出的。1985年,英国物理学家又提出了“量子图灵机”的概念,之后许多物理学家将“量子图灵机”等效为量子的电子线路模型,并开始付诸实践。但当年这些概念的提出都没有动摇摩尔定律在信息技术领域的地位,因为在相当长的时间内,摩尔定律依然在支撑着电子计算机的运算速度的飞速提高。

直到今年,美国政府宣布,摩尔定律终结了。微电子未来的发展是低能耗、专用这两个方向,而不再是追求速度。

由此可见,基础研究可能在当时看不到有什么实际价值,但未来却会发挥出巨大作用。

量子计算机虽然好,研制起来却非常难

量子计算机和电子计算机一样,其功用在于计算具体数学问题。不同的是,电子计算机所用的电子存储器在某个时间只能存一个数据,它是确定的,操作一次就把一个比特(bit,存储器最小单元)变成另一个比特,实行串行运算模式;而量子计算机利用量子性质,一个量子比特可以同时存储两个数值,N个量子比特可以同时存储2的N次方数据,操作一次会将这个2的N次方数据变成另外一个2的N次方数据,以此类推,运行模式为一个CPU的并行运算模式,运行操作能力指数上升,这是量子计算机来自量子性的优点。量子计算本来就是并行运算,所以说量子计算机天然就是“超级计算机”。

要想研制量子计算机,除了要研制芯片、控制系统、测量装置等硬件外,还需要研制与之相关的软件,包括编程、算法、量子计算机的体系结构等。

一台量子计算机运行时,数据输入后,被编制成量子体系的初始状态,按照量子计算机欲计算的函数,运用相应的量子算法和编程,编制成用于操作量子芯片中量子比特幺正操作变换,将量子计算机的初态变成末态,最后对末态实施量子测量,读出运算的结果。

一台有N个量子比特的量子计算机,要保证能够实施一个量子比特的任意操作和任意两个量子比特的受控非操作,才能进行由这两个普适门操作的组合所构成的幺正操作,完成量子计算机的运算任务。这是量子芯片的基本要求。如果要超越现有电子计算水平,需要多于1000个量子比特构成的芯片。目前,这还无法实现。这种基于“量子图灵机”的标准量子计算是量子计算机研制的主流。

除此以外,还有其他量子计算模型,如单向量子计算、分布式量子计算,但其研制的困难程度并没有减小。另外,还有拓扑量子计算、绝热量子计算等。

由于对硬件和软件的全新要求,量子计算机的所有方面都需要重新进行研究,这就意味着量子计算是非常重要的交叉学科,是需要不同领域的人共同来做才能做成的复杂工程。

把量子计算机从“垃圾桶”捡回来的量子编码与容错编码

实现量子计算最困难的地方在于,这种宏观量子系统是非常脆弱的,周围的环境都会破坏量子相干性(消相干),一旦量子特性被破坏,将导致量子计算机并行运算能力基础消失,变成经典的串行运算。

所以,早期许多科学家认为量子计算机只是纸上谈兵,不可能被制造出来。直到后来,科学家发明了量子编码。

量子编码的发现等于把量子计算机从“垃圾桶”里又捡回来了。

采用起码5个量子比特编码成1个逻辑比特,可以纠正消相干引起的所有错误。

不仅如此,为了避免在操作中的错误,使其能够及时纠错,科学家又研究容错编码,在所有量子操作都可能出错的情况下,它仍然能够将整个系统纠回理想的状态。这是非常关键的。

什么条件下能容错呢?这里有个容错阈值定理。每次操作,出错率要低于某个阈值,如果大于这个阈值,则无法容错。

这个阈值具体是多大呢?

这与计算机结构有关,考虑到量子计算的实际构型问题,在一维或准一维的构型中,容错的阈值为10^-5,在二维情况(采用表面码来编码比特)中,阈值为10^-2。

目前,英国Lucas团队的离子阱模型、美国Martinis团队的超导模型在单、双比特下操作精度已达到这个阈值。

所以,我们的目标就是研制大规模具有容错能力的通用量子计算机。

量子计算机的“量子芯”

量子芯片的研究已经从早期对各种可能的物理系统的广泛研究,逐步聚焦到了少数物理系统。

20世纪90年代时,美国不知道什么样的物理体系可以做成量子芯片,摸索了多年之后,发现许多体系根本不可能最终做成量子计算机,所以他们转而重点支持固态系统。

固态系统的优点是易于集成(能够升级量子比特数目),但缺点是容错性不好,固态系统的消相干特别严重,相干时间很短,操控误差大。

2004年以来,世界上许多著名的研究机构,如美国哈佛大学、麻省理工学院、普林斯顿大学,日本东京大学,荷兰Delft大学等都做了很大的努力,在半导体量子点作为未来量子芯片的研究方面取得了一系列重大进展。最近几年,半导体量子芯片的相干时间已经提高到200微秒。

国际上,在自旋量子比特研究方面,于2012年做到两个比特之后,一直到2015年,还是停留在四个量子点编码的两个自旋量子比特研究上,实现了两个比特的CNOT(受控非)。

虽然国际同行关于电荷量子比特的研究比我们早,但是至今也只做到四个量子点编码的两个比特。我们研究组在电荷量子比特上的研究,2010年左右制备单个量子点,2011年实现双量子点,2012~2013年实现两个量子点编码的单量子比特, 2014~2015年实现四量子点编码的两个电荷量子比特。目前,已研制成六个量子点编码为三个量子比特,并实现了三个比特量子门操作,已经达到国际领先水平。

超导量子芯片要比半导体量子芯片发展得更快。

近几年,科学家使用各种方法把超导的相干时间尽可能拉长,到现在已达到了100多微秒。这花了13年的基础研究,相干时间比原来提高了5万倍。

超导量子计算在某些指标上有更好的表现,比如:

1.量子退相干时间超过0.1ms,高于逻辑门操作时间1000倍以上,接近可实用化的下限。

2.单比特和两比特门运算的保真度分别达到99.94%和99.4%,达到量子计算理论的容错率阈值要求。

3.已经实现9个量子比特的可控耦合。

4.在量子非破坏性测量中,达到单发测量的精度。

5.在量子存储方面,实现超高品质因子谐振腔。

美国从90年代到现在,在基础研究阶段超导领域的突破已经引起了企业的重视。美国所有重大的科技公司,包括微软、苹果、谷歌都在量子计算机研制领域投入了巨大的力量,尽最大的努力来争夺量子计算机这块“巨大的蛋糕”!

其中,最典型的就是谷歌在量子计算机领域的布局。它从加州大学圣芭芭拉分校高薪引进国际上超导芯片做得最好的J. Matinis团队(23人),从事量子人工智能方面的研究。

他们制定了一个目标―明年做到50个量子比特。定这个目标是因为,如果能做49个量子比特的话,在大数据处理等方面,就远远超过了电子计算机所有可能的能力。

整体来看,量子计算现在正处于“从晶体管向集成电路过渡阶段”。

尚未研制成功的量子计算机,我们仍有机会!

很多人都问,实际可用的量子计算机究竟什么时候能做出来?

中国和欧洲估计需要15年,美国可能会更快,美国目前的发展确实也更快。

量子计算是量子信息领域的主流研究方向,从90年代开始,美国就在这方面花大力气进行研究,在硬件、软件、材料各个方面投入巨大,并且它有完整的对量子计算研究的整体策划,不仅各个指标超越世界其他国家,各个大公司的积极性也被调动了起来。

美国的量子计算机研制之路分三个阶段:第一阶段,由政府主导,主要做基础研究;第二阶段,企业开始投入;第三阶段,加快产出速度。

量子计算的特性篇(2)

1、引言

在人类刚刚跨入21山_纪的时刻,!日_界科技的重大突破之一就是量子计算机的诞生。德国科学家已在实验室研制成功5个量子位的量子计算机,而美国LosAlamos国家实验室正在进行7个量子位的量子计算机的试验。它预示着人类的信息处理技术将会再一次发生巨大的飞跃,而研究面向量子计算机以量子计算为基础的量子信息处理技术已成为一项十分紧迫的任务。

2、子计算的物理背景

任何计算装置都是一个物理系统。量子计算机足根据物理系统的量子力学性质和规律执行计算任务的装置。量子计算足以量子计算目L为背景的计算。是在量了力。4个公设(postulate)下做出的代数抽象。Feylllilitn认为,量子足一种既不具有经典耗子性,亦不具有经典渡动性的物理客体(例如光子)。亦有人将量子解释为一种量,它反映了一些物理量(如轨道能级)的取值的离散性。其离散值之问的差值(未必为定值)定义为量子。按照量子力学原理,某些粒子存在若干离散的能量分布。称为能级。而某个物理客体(如电子)在另一个客体(姻原子棱)的离散能级之间跃迁(transition。粒子在不同能量级分布中的能级转移过程)时将会吸收或发出另一种物理客体(如光子),该物理客体所携带的能量的值恰好是发生跃迁的两个能级的差值。这使得物理“客体”和物理“量”之问产生了一个相互沟通和转化的桥梁;爱因斯坦的质能转换关系也提示了物质和能量在一定条件下是可以相互转化的因此。量子的这两种定义方式是对市统并可以相互转化的。量子的某些独特的性质为量了计算的优越性提供了基础。

3、量子计算机的特征

量子计算机,首先是能实现量子计算的机器,是以原子量子态为记忆单元、开关电路和信息储存形式,以量子动力学演化为信息传递与加工基础的量子通讯与量子计算,是指组成计算机硬件的各种元件达到原子级尺寸,其体积不到现在同类元件的1%。量子计算机是一物理系统,它能存储和处理关于量子力学变量的信息。量子计算机遵从的基本原理是量子力学原理:量子力学变量的分立特性、态迭加原理和量子相干性。信息的量子就是量子位,一位信息不是0就是1,量子力学变量的分立特性使它们可以记录信息:即能存储、写入、读出信息,信息的一个量子位是一个二能级(或二态)系统,所以一个量子位可用一自旋为1/2的粒子来表示,即粒子的自旋向上表示1,自旋向下表示0;或者用一光子的两个极化方向来表示0和1;或用一原子的基态代表0第一激发态代表1。就是说在量子计算机中,量子信息是存储在单个的自旋’、光子或原子上的。对光子来说,可以利用Kerr非线性作用来转动一光束使之线性极化,以获取写入、读出;对自旋来说,则是把电子(或核)置于磁场中,通过磁共振技术来获取量子信息的读出、写入;而写入和读出一个原子存储的信息位则是用一激光脉冲照射此原子来完成的。量子计算机使用两个量子寄存器,第一个为输入寄存器,第二个为输出寄存器。函数的演化由幺正演化算符通过量子逻辑门的操作来实现。单量子位算符实现一个量子位的翻转。两量子位算符,其中一个是控制位,它确定在什么情况下目标位才发生改变;另一个是目标位,它确定目标位如何改变;翻转或相位移动。还有多位量子逻辑门,种类很多。要说清楚量子计算,首先看经典计算。经典计算机从物理上可以被描述为对输入信号序列按一定算法进行交换的机器,其算法由计算机的内部逻辑电路来实现。经典计算机具有如下特点:

a)其输入态和输出态都是经典信号,用量子力学的语言来描述,也即是:其输入态和输出态都是某一力学量的本征态。如输入二进制序列0110110,用量子记号,即10110110>。所有的输入态均相互正交。对经典计算机不可能输入如下叠加Cl10110110>+C2I1001001>。

b)经典计算机内部的每一步变换都将正交态演化为正交态,而一般的量子变换没有这个性质,因此,经典计算机中的变换(或计算)只对应一类特殊集。

相应于经典计算机的以上两个限制,量子计算机分别作了推广。量子计算机的输入用一个具有有限能级的量子系统来描述,如二能级系统(称为量子比特),量子计算机的变换(即量子计算)包括所有可能的幺正变换。因此量子计算机的特点为:

a)量子计算机的输入态和输出态为一般的叠加态,其相互之间通常不正交;

b)量子计算机中的变换为所有可能的幺正变换。得出输出态之后,量子计算机对输出态进行一定的测量,给出计算结果。由此可见,量子计算对经典计算作了极大的扩充,经典计算是一类特殊的量子计算。量子计算最本质的特征为量子叠加性和相干性。量子计算机对每一个叠加分量实现的变换相当于一种经典计算,所有这些经典计算同时完成,并按一定的概率振幅叠加起来,给出量子计算的输出结果。这种计算称为量子并行计算,量子并行处理大大提高了量子计算机的效率,使得其可以完成经典计算机无法完成的工作,这是量子计算机的优越性之一。

4、量子计算机的应用

量子计算机惊人的运算能使其能够应用于电子、航空、航人、人文、地质、生物、材料等几乎各个学科领域,尤其是信息领域更是迫切需要量子计算机来完成大量数据处理的工作。信息技术与量子计算必然走向结合,形成新兴的量子信息处理技术。目前,在信息技术领域有许多理论上非常有效的信息处理方法和技术,由于运算量庞大,导致实时性差,不能满足实际需要,因此制约了信息技术的发展。量子计算机自然成为继续推动计算速度提高,进而引导各个学科全面进步的有效途径之一。在目前量子计算机还未进入实际应用的情况下,深入地研究量子算法是量子信息处理领域中的主要发展方向,其研究重点有以下三个方面;

(1)深刻领悟现有量子算法的木质,从中提取能够完成特定功能的量子算法模块,用其代替经典算法中的相应部分,以便尽可能地减少现有算法的运算量;

(2)以现有的量子算法为基础,着手研究新型的应用面更广的信息处理量子算法;

(3)利用现有的计算条件,尽量模拟量子计算机的真实运算环境,用来验证和开发新的算法。

5、量子计算机的应用前景

目前经典的计算机可以进行复杂计算,解决很多难题。但依然存在一些难解问题,它们的计算需要耗费大量的时间和资源,以致在宇宙时间内无法完成。量子计算研究的一个重要方向就是致力于这类问题的量子算法研究。量子计算机首先可用于因子分解。因子分解对于经典计算机而言是难解问题,以至于它成为共钥加密算法的理论基础。按照Shor的量子算法,量子计算机能够以多项式时间完成大数质因子的分解。量子计算机还可用于数据库的搜索。1996年,Grover发现了未加整理数据库搜索的Grover迭代量子算法。使用这种算法,在量子计算机上可以实现对未加整理数据库Ⅳ的平方根量级加速搜索,而且用这种加速搜索有可能解决经典上所谓的NP问题。量子计算机另一个重要的应用是计算机视觉,计算机视觉是一种通过二维图像理解三维世界的结构和特性的人工智能。计算机视觉的一个重要领域是图像处理和模式识别。由于图像包含的数据量很大,以致不得不对图像数据进行压缩。这种压缩必然会损失一部分原始信息。

量子计算的特性篇(3)

Quantum Computing for

Computer Scientists

2008, 384pp.

Hardcover

ISBN 9780521879965

N.S.扬诺夫斯基等著

量子计算是计算机科学、数学和物理学的交叉学科。在跨学科研究领域中,量子计算开创了量子力学的许多出人意料的新方向,并拓展了人类的计算能力。本书直接引领读者进入量子计算领域的前沿,给出了量子计算中最新研究成果。该书从必要的预备知识出发,然后从计算机科学的角度来介绍量子计算,包括计算机体系结构、编程语言、理论计算机科学、密码学、信息论和硬件。

全书由11章组成。1.复数,给出了复数的基本概念、复数代数和复数几何;2.复向量空间,以最基本的例子Cn空间引入,介绍了复向量空间的定义、性质和例子,给出了向量空间的基和维数、内积和希尔伯特空间、特征值和特征向量、厄米特矩阵和酉矩阵、张量积的向量空间;3.从古典到量子的飞跃,主要内容有古典的确定性系统、概率性系统、量子系统、集成系统;4.基本量子理论,主要有量子态、可观测性、度量和集成量子系统;5.结构框架,主要包括比特和量子比特、古典门、可逆门和量子门;6.算法,包括Deutsch算法、Deutsch-Jozsa算法、Simon的周期算法、Grover搜索算法和Shor因子分解算法;7.程序设计,包括量子世界的程序设计、量子汇编程序设计、面向高级量子程序设计和先于量子计算机的量子计算;8.理论计算科学,包括确定和非确定计算、概率性计算和量子计算;9.密码学,包括古典密码学、量子密钥交换的三个协议(BB84协议、B92协议和EPR协议)、量子电子传输;10.信息论,主要内容有古典信息和Shannon熵值、量子信息和冯•诺依曼熵值、古典和量子数据压缩、错误更新码;11.硬件,主要包括量子硬件的目标和挑战、量子计算机的实现、离子捕集器、线性光学、NMR与超导体和量子器件的未来。最后给出了5个附录,附录A量子计算的历史,介绍了量子计算领域中的重要文献;附录B习题解答;附录C 使用MATLAB进行量子计算实验;附录D 了解量子最新进展的途径:量子计算的网站和文献;附录E选题报告。

本书适合计算机科学的本科学生和相关研究人员,也适合各级科研人员自学。

陈涛,硕士

(中国传媒大学理学院)

量子计算的特性篇(4)

在诺贝尔奖委员会的新闻稿中,两位获奖者的成就被称为“为实现量子计算机奠定了基础。”一时间,量子计算机也成为了业界关注的焦点。

薛定谔的猫和诺贝尔奖

对于普通人来说,量子力学是个深不可测的概念。不过,随着最近几年科幻题材电影电视剧的风靡,“平行宇宙”、“平行世界”之类的词汇开始被频频提及,而它正是出自量子力学的相关概念。

想要了解什么是量子计算机,那么首先需要了解“薛定谔的猫”这个量子力学中的经典假设。

1935年,奥地利著名物理学家,同时也是量子力学创始人之一的薛定谔设想出这样一个实验:一只猫被关进一个不透明的箱子里,箱子内事先放置好一个毒气罐,毒气罐的开关由一个放射性原子核来控制。当原子核发生衰变时,它会释放出一个粒子触发毒气罐的开关,这样毒气释放,猫就会被毒死。

根据量子力学的理论,在实验者没有开箱进行观测时,原子核处于衰变和未衰变的叠加状态,换言之,箱子里的猫既是活的也是死的,对于普通人来说,很难理解“既生又死”这样的状态,但这正是量子力学研究的领域。量子力学针对的是在微观环境下的物理现象,在这一环境中,大家中学时候学习的经典物理学中的规律会突然失效,微观世界是由另一套自然法则在操控,这也是为什么薛定谔的理想实验中猫既能是活的也能是死的。

不过,一旦打开箱子,微观实现就会出现“崩塌”,原子核的状态就会确定下来,此时猫是生是死也随之揭晓答案。

长期以来,由于不能实际观测,量子力学仅仅停留在理论之上,而缺乏实践的验证。然而,今年两位诺贝尔奖得主的成就正是在这方面取得了突破。他们各自通过精妙的实验,使“测量和操控量子系统成为可能”,让不打开箱子就能观察猫的生死变成了可能。当然,更重要的是,它也使量子计算机的实现变得不再遥不可及。

不再是空想的量子计算机

所谓量子计算机是基于量子力学基本原理实现信息处理的一项革命性计算技术。1982年,美国物理学家费曼在一次演讲中提出利用量子体系实现通用计算的想法,当时他发现,分析模拟量子物理世界所需要的计算能力远远超过了经典计算机所能达到的能力,而用实验室中一个可控的量子系统来模拟和计算另外一个人们感兴趣的量子系统会非常高效,量子计算机的概念也应运而生。

量子计算机与经典计算机不同之处在于,对于经典计算机来说,其基本的数据单位就是一个比特,相对应的一个比特不是0就是1,而对于量子计算机来说,一个比特可以同时表示0和1,这就意味着两个比特就能表示00、01、10、11四种状态。这样,只要有300个量子比特,其承载的数据就能是2的300次方,这将超过整个宇宙的原子数量总和。简而言之,量子计算机的运算能力将是目前经典计算机所无法比拟的。

前面的表述未免抽象,举一个形象的例子:目前最好的多核处理器能够解密150位的密码,如果想要解密一个1000位的密码,那么需要调用目前全球的计算资源才有可能实现。但是从理论上讲,一台量子计算机在几个小时内就能解决这一问题。在量子计算机面前,目前世界上最复杂的密码也会变得不堪一击,这意味着互联网上将不再有秘密可言,人类需要重新设立一套与现在完全不同的信息加密系统。

量子计算机的用处当然不只是破译密码,在大数据分析的时代,对计算机运算能力的要求正变得愈来愈高,从语义识别到人工智能,都需要倚仗计算机强大的运算能力才能完成,这也让业界对于量子计算机的诞生充满了期待。

不过,虽然理论上300个量子比特就能赋予计算机难以想象的运算能力,但现实与想象毕竟还存在不小的差距。根据清华大学交叉信息研究院助理研究员尹章琦的介绍,估算大概需要至少一万个量子比特才能超越经典计算机的计算能力,“因为我们需要对计算过程进行纠错,所以需要很多个物理比特才能获得一个可容错的逻辑比特。估计需要大概一千个逻辑比特运行Shor算法来超越经典计算机的计算能力,那么物理比特至少要高一个量级,甚至可能要高两个量级”。尹章琦所从事的正是关于量子信息与量子光学的理论与实验研究。

商业化的未来

在学界还在探讨量子计算机可行性的时候,产业界已经迫不及待开始了实践。早在2001年,IBM就曾经成功实现利用7个量子比特完成量子计算中的素因子分解法。

2007年,加拿大的D-Wave公司就了号称全球第一台商用量子计算机――采用16位量子比特处理器的Orion(猎户座)。不过,Orion后迅速被业界泼了一盆冷水,业内人士称,Orion并不是真正意义上的量子计算机,只是具备了一些量子计算的特性。

去年,D-Wave卷土出来,了全新的产品――D-Wave One,这一次它的处理器达到了128量子比特,比前代产品大大提升,一台售价高达1000万美元。但是,由于D-Wave对核心技术三缄其口,学术界无法得知关于其产品的更多信息,质疑之声再起,因为目前能够实现10量子比特已经是相当了不起的成就。

不过,即便质疑不断,D-Wave还是成功拿到了第一张订单,外国媒体报道,美国知名的军备制造商洛克希德・马丁已经购买了D-Wave的产品并且将其用在一些复杂的项目上,比如F-35战斗机软件错误的自动检测。

不仅如此,D-Wave还在今年10月得到了来自贝索斯以及美国中情局下属投资机构In-Q-Tel总计3000万美元的投资。贝索斯的投资逻辑显而易见,随着现实世界的不断互联网化,他的野心自然是通过深度挖掘和分析亚马逊积累的海量数据创造出更大的商业价值,而量子计算机正是实现这一切的基础。

量子计算的特性篇(5)

1.1巨型计算机巨型计算机的特点是:运算速度极快、存储空间巨大、功能强大。通常情况下,巨型计算机可以达到每秒百亿次以上的运算速度,其内存容量可达几百兆。巨型机是现阶段计算机技术发展水平的代表之一,在地质勘测、航空航天、国防、卫星、气象等领域有广泛应用,对这些领域的发展具有重要的影响作用。巨型计算机是未来计算机发展趋势之一,对其技术的研究能够有力推动计算机软硬件的应用技术的发展。

1.2神经网络计算机神经网络计算机是通过模仿人脑神经高效的运算功能而研究出的计算机技术。神经网络技术可以通过神经网络算法对较为复杂的信息进行处理、综合和判断,最后得出处理结果,其数据信息都是储存在神经节点中的,避免了由于各种因素而造成的神经元断裂、数据丢失或泄露等现象的发生。

1.3分子计算机分子计算机是使用分子方式对数据信息进行运算的,主要是使用分子晶体吸收信息电荷,并对其进行有组织的排列,从而达到更有效、更快捷的运算。分子计算机的特点是:存储信息时间长、存储量大、运算速度快、耗能少、体积小等。

1.4生物计算机生物计算机使用的是“蛋白质分子”构成的芯片取代了半导体硅片上原有的晶体管而研制成的计算机,它的特点是:运算速度快、存储量大、耗能低。生物计算机最主要的缺点是从其中提取信息比较困难,这一缺点也使得其使用率较低。不过在计算机技术未来的发展中,会通过不断创新和改进技术,使生物计算机扬长补短、发挥所长。

1.5量子计算机量子计算机是应用量子力学规律,并通过对量子信息进行高速的逻辑运算、数学运算、存储等处理过程的新技术。也就是说,当一台计算机使用的算法是量子算法,处理的信息是量子信息时,这台计算机就是量子计算机。量子计算机比普通计算机的运算速度快很多,且对信息的存储量要远比普通计算机大。量子计算机很有可能在不远的将来普及到千家万户。

1.6光计算机通过利用光替代电流或电子,可以极大的提高计算机的信息速度,可在同一时间处理大容量的信息,且耗电量微乎其微。光计算机技术是使用光内连技术和空间光调制器来实现的,通过光技术将存储部分和运算部分连接在一起,运算部分可以直接对存储部分进行存取。由于光的物理特性比电子的物理特性更适合传输,所以使用光传输,其传输速度更快、稳定性更强,不易出错。

1.7纳米计算机纳米技术是一种新兴的技术。一纳米相当于原子大小的四倍,比单个细菌略长些。纳米计算机是将纳米技术融入到传统的计算机技术中,而发展出来的一种新计算机技术。是通过将纳米元件集成的芯片应用到计算机系统中而形成的数据处理系统,其中纳米元件包括有计算机的电动机、处理器和传感器等。纳米元件可以很好的提升计算机的可靠性,使其导电性能大大增强。

量子计算的特性篇(6)

中图分类号: TP391.4

文献标志码:A

0引言

行人检测一直是模式识别、机器视觉、图像处理等研究领域中的一项重要研究课题,广泛应用于视频监控系统、智能车辆控制、肢体动作分析等智能系统中。目前基于统计学习的行人检测方法主要由特征提取和分类学习两部分构成。此类方法中最为典型的是Dalal等[1]提出的基于方向梯度直方图(Histogram of Oriented Gradients, HOG)和支持向量机(Support Vector Machine, SVM)的行人检测方法,该方法能有效刻画人体边缘特征,在行人检测研究中取得了突破性的进展, 但它也存在特征维数高、计算复杂的问题。另外,不少学者还提出了其他的方法用以描述行人特征。Chen等[2]提出的基于人类视觉机制的韦伯特征(Weber Local Lescriptor,WLD)的方法,对光影变化有一定的鲁棒性; Wu等[3]提出的利用线条描述人体局部轮廓的小边特征(Edgelet)在图像出现遮挡的情况下也有了较好的检测效果; Yu等[4]提出了利用光流法计算图像内部的运动信息进行统计建模的检测方法,能有效针对运动目标进行检测。除此之外,还有颜色特征、伽柏特征(Gabor)、协方差特征(Covariance, COV)、积分通道特征(Integral Channel Feature, ICF)等一系列的特征提取算法[5-7]。

在基于统计学习方法的行人检测算法中有两个因素对于检测结果有着至关重要的影响:一是分类器设计,二是行人的特征和标识集的建立。在真实场景中,行人和背景通常都是非静态的,可能存在各种变化。为了解决这些问题,行人特征的提取和描述必须做到高效和精确。局部二值模式(Local Binary Pattern, LBP)是一种描述图像纹理特征的有效算子,它具有单调变换不变性和旋转不变性的特点,对光照和周围环境的变化具有一定的鲁棒性[8]。显著性局部二值模式(Significant Factor Local Binary Pattern, SFLBP)则是在LBP算子的基础上融合了显著性因子,使得特征符合人类视觉快速搜索的规律,突出强调行人特征[9]。利用SFLBP特征结合AdaBoost分类器可提高分类器对于行人特征的区分度,有效地提高检测的精度,达到更好的检测效果。

1显著纹理结构

传统的行人检测方法主要是根据图像自身描述的信息提取出行人特征,再通过这些特征来判断图像中是否存在行人区域,一般可用于提取行人特征的信息有颜色、轮廓、边缘、结构等。本文先提取图像中的LBP纹理特征信息,然后在特征中融合显著性因子,突出图像中视觉显著区域的纹理特征,有利于分类器更好地对特征进行分类操作。

1.1 显著性描述因子

显著性描述因子(Significant Factor)主要是根据人类的视觉特性来描述图像显著性的算子[10]。依据人的视觉感知特性,显著性一般是由目标部分与背景区域的基于色彩和亮度特征的比值组成,局部显著性因子定义为邻域像素值与中心像素的像素值的之间的对比关系,具体表达式为:

G(Xc)=(∑p-1i=0(ΔXi))/Xc=(∑p-1i=0(Xi-Xc))/Xc(1

为统一描述图像中的局部显著性特征,对局部显著因子作归一化处理,进一步定义中心像素点的显著性因子为:

ξ(Xc)=arctan[G(Xc)]=arctan[∑p-1i=0(Xi-Xc)/Xc] (2)

其中:ξ(Xc)的取值范围是[-π/2,π/2],另外将ξ(Xc)映射到矩形算子框架中,将矩形框划分为N个区间Si(i=0,1,…,N-1),每个区间Si的显著性因子权值也会因区间位置的不同略有差异。ξ(Xc)的值越大,表明该处的显著性比值越强。图1显示了两种常见的分块矩形结构的显著性因子权值。

图片

图1分块矩形结构权重

1.2结合显著性因子的纹理结构

LBP算子主要用于描述图像的局部纹理结构,它在物体分类、织物检测、运动目标检测中都有广泛应用[11]。式(3)、(4)给出了计算LBP特征值的基本公式:

LBP(Pc)=∑p-1n=02ns(gn-gc)(3

s(x)=1, x≥00, x

最基本的LBP算子是定义在3×3的窗口上的,图2(c)中的像素点Pc计算出来的LBP值为10011011。若对整幅图中每个像素都提取LBP值,那么组成的新图像则是由LBP特征构成的二次特征描述图,也就是得到了整幅图的LBP特征。LBP算子目前已有若干变形和改进,以提高其对纹理特征的描述效果,例如LBP均匀模式、LBP旋转不变模式、LBP等价模式等[12]。

根据行人在图像中包含较多垂直边缘的特点,本文采用一种基于垂直边缘信息的改进LBP算子LBPxi(Pc)作为纹理特征提取的算法。显著性因子具有突出图像中前景目标、削弱背景的作用,因此算法模拟人类的视觉注意机制,根据图像不同区域的显著性因子权值ξ(Xc)来调整LBP纹理值,建立图像的显著性纹理特征,此特征即为SFLBP特征。在融合显著性因子和LBP特征的过程中需先计算出每个局部区域的显著性因子ξ(Xc),将其映射至原始像素空间构成一组特征向量,然后将特征向量转换成核矩阵,并利用此核矩阵逐个遍历调整LBP特征值,这样就构成了描述显著性纹理特征的SFLBP算子。该算子更加精确地描述了图像中关键信息的纹理特征,也更加符合人类的视觉注意机制,增强了在图像中目标区域的显著性。

图片

图2LBP算子计算示例图

第11期

马强等:融合显著性因子的行人纹理提取

计算机应用 第35卷

2基于SFLBP特征的行人检测

2.1SFLBP特征提取的基本算法

SFLBP算子在图像纹理特征的基础上融合了显著性因子,更加符合人类视觉处理机制,具有能够重点突出图像中感兴趣区域的特征、削弱非目标区域的纹理特征的优点。因此,本文用SFLBP算子来提取待检测图像中的纹理特征,并形成统一的特征向量。为了进一步提高纹理特征的描述精度,突出不同区域的局部特点,可以采取局部纹理特征的思想[12],将原始图像分成多个部分,分别提取出图像的局部显著性纹理特征,并计算其统计直方图,然后形成基于局部信息的SFLBP特征向量,这样可以重点突出有效区域的特征信息,减小特征向量中的信息冗余度。此过程的算法步骤如下所示:

输入训练集图像样本。

1) 确定图像最合适的分块数量N0×N0;

2) 对分块后的局部样本图像根据式(1)、(2)计算显著性因子权值ξ(Xc);

3) 根据式(3)、(4)计算局部样本图像的LBP特征值LBPxi(Pc),并根据步骤2)中的显著性因子调整LBP特征权值,计算得出SFLBP特征值;

4) 重复步骤2)~3),直至所有的分块图像都完成计算,然后统计各区域的SFLBP特征值,得到完整图像的SFLBP特征向量;

5) 对样本集所有样本图像执行步骤2)~4)操作,得到SFLBP特征向量集;

6) 将步骤5)中的特征向量集输入分类器,训练分类器参数。

2.2分类器的选择和训练

在上述的算法步骤中,分类器的参数训练和对特征向量的分类结果直接影响到最终的检测效果。AdaBoost分类器基本思想是对分类器多次迭代训练以提高分类效果,迭代过程中可以排除掉一部分不必要的训练数据,突出关键数据的训练结果[13]。因而对于SFLBP算子中的显著性较高的部分有正向激励的作用,提高SFLBP算子的检测准确率。故而实验采用AdaBoost分类器对SFLBP特征向量进行分类实验。

分类器训练的具体过程是将特征向量作为AdaBoost分类器的输入特征集,训练弱分类器,并根据训练结果的误差来反馈调节分类器参数,式(5)即为分类器误差的计算公式:

εj=∑Nt=1Dt(xt)hj(xt)-yt(5)

其中hj(x)为弱分类器的分类函数,具体公式如式(6)所示:

hj(x)=1,pjgj(x)

在弱分类器达到指定的准确率后,需根据样本分类正确与否调整各个样本权值Di(Xi),并重新生成新的特征向量集合; 接着继续迭代训练分类器,直至最后分类器达到理想的分类效果; 最后将所有弱分类器合成最终的强分类器公式如(7)所示:

H(x)=1,∑Tt=1αtht(x)≥12∑Tt=1αt0,其他 (7

最终训练出的分类器就可以用来对需要检测的样本图像进行行人检测实验。具体的步骤如图3所示。

图片

图3SFLBP结合AdaBoost的实验流程

3实验结果与分析

INRIA数据集包括各种不同光照条件下、不同穿着、不同姿态和视角的行人数据。其中训练集有正样本614张,负样本1218张;测试集中含有正样本288张,负样本453张。本次测试中选取INRIA数据集作为本次实验的数据库,综合测试SFLBP算子在行人检测实验中的实际效果。

3.1SFLBP算子分块对比实验

在用SFLBP算子描述图像特征时,需选择合适的图像分块数目来计算SFLBP算子。为充分对比不同算法的实验效果,本文选择几种在行人检测领域常用的LBP特征描述算子LBP4-1、LBP8-2等一起对比实验,综合分析各个算子的特征向量的检测效果。表1中列出了这几种特征的检测精确度对比情况。

表格(有表名)

表1不同算子的检测准确度%

算子类别分块数1×12×23×34×45×5

基本LBP73.681.283.488.387.2

LBP4-183.489.391.092.491.3

LBP8-283.890.491.892.691.5

SFLBP86.493.694.295.094.7

横向分析表1中的数据,当分块数目比较小时,分块数目越大,局部特征描述越精确,这样检测效果越好;但当分块数目达到一定值后,再增加分块反而出现过拟合现象,目标区域的检测效率反而有所下降,基本上在分块数目为4×4的时候能取得最好的检测效果。另外,从SFLBP算子的实验数据可以看出在分块数目为9、16、25的时候该算子的检测准确率分别达93.6%、94.2%、94.7%,比基本的LBP算子和LBP4-1、LBP8-2这几种改进的算子的检测效果至少高出3%~4%。

3.2基于SFLBP算子的行人检测实验

实验先用SFLBP算子来描述图像的特征,生成对应的特征向量,然后将这些特征向量作为分类器的输入向量,利用AdaBoost分类器训练特征构成分类器。在迭代训练分类器过程中,一般来讲弱分类器数目越大,最后形成的总分类器的分类效果越好,但弱分类器的数目过大也会造成分类器数量庞大、计算复杂的问题。因此,在保证分类效果的同时尽量减小计算量也是设计分类器过程中需要考虑的问题。图4显示了SFLBP、HOG、Haar三种特征的迭代次数与误差率曲线。

图片

图4迭代次数与误差率曲线

从图4三种特征的误差率变化曲线中可以看出,当误差率趋于稳定后,SFLBP特征的误差率最小,具有最好的效果。而且单独观察SFLBP特征的误差率曲线可知迭代次数小于20时,分类器的误差随着迭代次数的增加会显著下降,迭代次数达到20以后误差率达到收敛,保持在一个稳定的幅度,系统保持稳定。

从上述实验结果可以看出当迭代次数为20时,误差率达到最低范围,同时计算程度也不会特别复杂。这样分类器迭代完成后总共生成20个弱分类器,利用这20个弱分类器即可构成完整的AdaBoost分类器。分类器训练完成后,接下来便对INRIA数据库中的测试样本进行实验,部分实验结果如图5所示。

图片

图5部分行人检测效果图

3.3SFLBP检测效果比较

为准确评估SFLBP算子的检测效果,本文采取目标检测中常用的准确率(Precision Rate, Pr)、召回率(Recall Rate, Rr)和F值(F1Measure, F1)等指标来评估该算法好坏,计算公式如式(8)~(10)所示:

Pr=正确检测的样本数正确检测的样本数+误判的样本数×100%(8

Rr=正确检测的样本数总的样本数×100%(9

F1=2×Pr×RrPr+Rr×100%(10

另外,为比较SFLBP算子与其他算法在实验中的准确率,本文一同对比了其他几种常见行人检测算法,实验中各个算法的准确率和召回率指标如表2所示。

表格(有表名)

表2不同方法的检测准确率比较

检测方法特征维度Pr/%Rr/%F1/%

HOG+

AdaBoost

127595.388.791.9

6094.688.391.3

Haar+

AdaBoost

85394.887.290.8

6094.186.590.1

SFLBP+

AdaBoost

106297.490.093.6

6096.589.392.7

从表2中数据可以看出,不管是使用初始维度特征进行检测,还是利用主成分分析(Principal Components Analysis, PCA)降维方法将特征降到60维后检测的结果可以看出,采用SFLBP算子的方法在准确率上平均要高出2%~3%。在召回率上,该方法要比采用HOG特征、Haar特征的方法也高出近3%,达到90%。另外,从F值也可以看出基于SFLBP算子的检测方法在实验中具有最好的检测效果。

4结语

SFLBP算子是一种改进的纹理特征提取算法,其主要的改进点是模拟人类视觉观察机理中的发散性及显著性特点,利用显著性因子调整图像中不同区域的LBP纹理特征,进一步突出行人的显著性特征,提高了特征的代表性和描述能力。在INRIA数据库上的实验结果显示采用SFLBP特征的AdaBoost检测方法比采用HOG特征、Haar特征的方法高出2%~3%,准确率能达到96%~97%。实际的行人检测系统由于光照、遮挡、背景变化等原因,其复杂度要远远高于本文实验的数据集。后续将从这几个方面去改善行人检测算法,提高算法的适用性和检测准确率。

参考文献:

[1] DALAL N, TRIGGA B. Histograms of oriented gradients for human detection[C]// Proceedings of the 2005 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2005: 886-893.

[2] CHEN J, SHAN S, HE C, et al. WLD: a robust local image descriptor[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9):1705-1720.

[3] WU B, NEVATIA R, LI Y. Segmentation of multiple, partially occluded objects by grouping, merging, assigning part detection responses[C]// Proceedings of the 2005 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2008: 1-8.

[4] YU X, HOU X, LU H, et al. Anomaly detection of fish school behavior based on features statistical and optical flow methods[J]. Transactions of the Chinese Society of Agricultural Engineering, 2014, 30(2):162-168.(于欣,侯晓娇,卢焕达,等.基于光流法与特征统计的鱼群异常行为检测[J].农业工程学报,2014,30(2):162-168.)

[5] SU S, LI S, CHEN S, et al. A survey on pedestrian detection[J]. Acta Electronica Sinica, 2012, 40(4): 814-820.(苏松志, 李绍滋, 陈淑媛, 等. 行人检测技术综述[J]. 电子学报, 2012, 40(4): 814-820.)

[6] ZENG B, WANG G, LIN X. Color selfsimilarity feature based realtime pedestrian detection[J]. Journal of Tsinghua University: Science and Technology, 2012, 52(4): 571-574.(曾波波,王贵锦,林行刚. 基于颜色自相似度特征的实时行人检测[J]. 清华大学学报: 自然科学版, 2012, 52(4): 571-574.)

[7] LIANG S, LIU Y, LI C. Face recognition research under unconstrained based on LBP and deep learning[J]. Journal of Communication, 2014, 35(6): 154-160.(梁淑芬,刘银华,李立琛. 基于LBP和深度学习的非限制条件下人脸识别算法[J]. 通信学报, 2014, 35(6): 154-160.)

[8] WANG W, HUANG F, LI J, et al. Face description and recognition using multiscale LBP feature[J]. Optics and Precision Engineering, 2008, 16(4):696-705.(王玮, 黄非非, 李见为, 等. 使用多尺度 LBP 特征描述与识别人脸[J]. 光学精密工程, 2008, 16(4):696-705.)

[9] SUN R, CHEN J, GAO J. Fast pedestrian detection based on saliency detection and HOGNMF features [J]. Journal of Electronics and Information Technology, 2013, 35(8): 1921-1926.(孙锐, 陈军, 高隽. 基于显著性检测与 HOGNMF 特征的快速行人检测方法[J]. 电子与信息学报, 2013, 35(8):1921-1926.)

[10] XIAO D, XIN C, ZHANG T, et al. Saliency texture structure descriptor and its application in pedestrian detection [J]. Journal of Software, 2014, 25(3):675-689.(肖德贵, 辛晨, 张婷, 等. 显著性纹理结构特征及车载环境下的行人检测[J]. 软件学报, 2014, 25(3):675-689.)

量子计算的特性篇(7)

只闻其名,量子计算机,大概就能猜到它是实现量子计算的机器。要说清楚量子计算,首先要先看经典计算。经典计算机从物理上可以被描述为对输入信号序列按一定算法进行变换的机器,其算法是由计算机的内部逻辑电路来实现的。1920年,奥地利人薛定谔、爱因斯坦、德国人海森伯格和狄拉克共同创建了一个前所未有的新学科——量子力学。量子力学的诞生为人类未来的第四次工业革命打下了基础,在此基础上发现了一项新技术,那就是量子计算机。量子计算机的技术概念最早由理查得·费曼提出的,后来经过若干年的研究,这项技术已初见成效了。

2013年5月23日,Google与NASA(美国宇航局)合作建立了一个实验室,其目的就是研究量子计算机。Google与高校空间研究协会(与NASA有密切合作的非盈利组织)购买了量子计算机,开始进行量子计算的研究工作。

量子计算与传统计算的区别

传统计算机利用几百万个电子晶体管进行数字运算,将0和1作为基本元素。量子计算则完全不同,它更有弹性,不再使用二进位代码,取而代之的是量子位元,又叫量子比特,它可以同时代表0和1。

传统计算机在0和1的二进制系统上运行,但量子计算机要更为强大,它可以在量子比特上运算,可以计算0和1之间的数值。假想一个放置在磁场中的原子,像陀螺一样旋转,它的旋转轴可以不是向上指就是向下指。按常识理解原子的旋转可能向上,可能向下,但不可能既向上又向下。但在量子世界里,原子被描述为两种状态的总和,它一个向上转的原子和一个向下转的原子的总和,即每一种物体都可以被使用所有不可思议状态的总和来描述。

换一种表述,传统计算机只能使用“开”和“关”两种状态来控制电流,而量子计算机具有“开”和“关”同时存在的第三种状态,这是量子世界不同于粒子世界的特性。使用量子计算机能并行处理更多的信息,计算速度远超传统计算机。要进行量子计算并不容易,但在某些传统计算机容易失败的领域,它却可以充分发挥优势。

量子计算机依赖的是量子机制来提高其计算速度,量子机制决定了所有物质和能量的行为表现,即使只利用量子机制的简单特性,构造出的计算机表现就远远超出任何一台超级电子计算机。加拿大公司D-Wave表示,它的“Orion”只是传统计算机的补充和增强,并不是要取代谁。换句话说,量子计算机还没有发展到可以“独领”的地步。

用一个简单的例子来描述量子计算机和传统计算机的差别:在一个虚拟界面上存在山冈和低谷,目标是找到最低点。传统计算机是从一个点开始寻找,不断搜索,有系统地搜索:是这里吗?这里呢?查找的过程很慢,除非有无限的时间和无穷的耐心,否则就只能选择“足够好”。现在的答案固然不错,但新的、更低的点也许在几次计算后才出现。相比量子计算机的效率就要高得多了,因为它可以同时用多个标准来评估,从而大大改进计算的效率。

量子计算机无法替代传统计算机

IBM和微软等许多公司都在研究量子计算技术。D-Wave是唯一销售量子计算机硬件的厂商,公司表示,在少数复杂问题上,量子计算机的速度要比传统计算机快5万倍。但需要注意的是,“高速”是有前提的,因此所谓的高速是受条件限制的。如果你只想发个邮箱、听首音乐,量子计算机不会让你觉得有什么太大的区别,但要完成复杂任务就不同了。Google Research工程主管表示,希望量子计算机可以让研究人员更有效率地工作,更准确地为一切研究建模,包括语音识别、网络搜索、蛋白质折叠等。

因此,量子计算机不会很快淘汰传统计算机,它有自己的限制,而且它很难建造,价格很高。到目前,量子计算机大多是基于理论的,量子人工实验室设立的目的之一就是推动理论的发展。它的目标是将理论用于实践,解决现实问题,为真正的量子设备编写代码。

Google为什么对量子计算机感兴趣

Google对新技术一直很痴迷,社交网、可穿戴设备、自驾汽车,现在又是量子计算机。这些项目的相似之处,就是它们都可以强化公司的数据中心基础设施。

Google希望利用量子计算更好地理解人类的语音提问,这项技术不只可以用在搜索引擎上,还可以用在移动应用上,如Google Now和Google Maps。

Google称:“我们已经开发一些量子机器学习算法。当中一些可以提高识别能力,比如在移动设备电源不足时识别。一些可以处理高度污染的训练数据,在现实世界中,许多时候数据被贴错标签。我们还可以从中学习到一些经验,比如,纯粹使用量子计算不会得到最好的结果,将量子计算与传统计算结合会更好。”

在谷歌的量子人工智能实验室当中,量子计算机会先进行机器学习,这是电脑学习的信息模式,可以提高它们的输出“吞吐量”。然后,量子计算机要负责进行个性化的互联网搜索和以GPS数据预测交通的拥堵情况。另外,还要进行面部或语音的识别、生物行为,或者是庞大且复杂的系统管理工作。

Google官方博客表示,如果世界需要建立有效的环境政策,就需要建立更好的模型来描述全球的天气和气候,否则就不会有令人信服的证据。

谷歌已经为量子计算机修改了机器学习算法,这种算法原本由D-Wave系统公司设计。D-Wave向洛克希德·马丁公司出售了首台商用量子计算机,洛克希德公司官员表示,计算机会被用于测试和测量工作,如喷气飞机的设计或卫星系统的可靠性。

量子计算机的广阔前景

近年来,由于社会对高速、保密、大容量的通讯和计算的需求,促进了量子信息、量子计算理论和实验的迅速发展。

2007年2月,加拿大D-Wave系统公司宣布研制成功16位量子比特的超导量子计算机。

2009年11月,世界首台量子计算机正式在美国诞生,这一量子计算机由美国国家标准技术研究院研制,可处理两个量子比特的数据。较传统计算机中的0和1比特,量子比特能存储更多的信息,其性能大大超越传统计算机。

2010年3月,德国某研究中心发表公报称其超级计算机成功仿真42位量子计算机。在此基础上,研究人员首次可以仔细地研究高位数量子计算机的系统特性。

IBM的科学家在量子计算方面取得重大突破,2012年1月完成系列量子计算试验,在绝对零度条件下证实了通过量子技术一秒钟可以进行亿万次运算。传统计算机数据位非0即1,而一个量子可以拥有0、1以及同时0与1三种状态。这项技术突破允许科学家在初步计算中减少数据错误率,同时在量子位中保持量子机械属性的完整性。

量子计算的特性篇(8)

量子概要

如果将磁场中的原子自旋视为一个量子,这个原子在同一时刻的状态是自旋轴向上和自旋轴向下同时存在的总和,即自旋轴向上的同时也自旋轴向下(量子叠加)。虽然目前物理学还无法解释其中的原因,但理论推导和实验观测都是如此。

在量子世界,不管两个有共同来源的粒子距离多么遥远,一个粒子的变化立即就能影响到另外一个粒子,是为量子相干。譬如两电子发生正向碰撞,若其中一电子是向左自转的,那么另外一电子必是向右自转。一旦量子系统与外部环境发生相互作用,会导至量子相干性的衰减,即消相干或退相干(即薛定谔猫)。

任何对量子状态的测量都会发生退相干。这是一个困扰物理学界的难题。法国物理学家阿罗什和美国物理学家维因兰以其独立发明的方法,在不退相干的情况下实现了对量子状态的测量,从而获得2012年诺贝尔物理奖。

量子计算

在磁场下,如果原子自旋轴向上为“0”,自旋轴向下为“1”,那么量子比特(qubit,昆比特)在同一时刻可代表2个状态:“0”和“1”。 一个量子比特有两个状态,N个量子比特就能存入2N个二进制数。维因兰称:“通常,有N个量子比特的计算机可以同时对2N个数值进行操作。300个量子比特所能存储的数值就会比宇宙中的粒子总数还要多。”

假设磁场中的一串原子,各自有初始的自旋状态;一束激光照射过来,激光束会改变一些原子的旋转状态。如果能测量激光束进入前后的差异,就能完成量子“计算”。 阿罗什和维因兰的成就在于攻克退相干难题,使量子测量得以实现。其成就的意义正如瑞典皇家科学院所说,“他们的突破性方法向着建造基于量子物理的新型超快计算机迈出了关键一步”。

量子计算机

量子计算的特性篇(9)

为突破“摩尔定律”的极限,除了不断提升集成电路计算机运算效率,各种新型计算机也在科学家脑中酝酿。以量子计算机为例,其基本数据单位依然是比特0或1。但与传统计算机不同,一个量子比特可以同时表现为0和1,两个量子比特就是00、01、10、11四种状态。以此类推,300个量子比特承载的数据量便可达到2的300次方,超过整个宇宙的原子数量总和,由此带来运算速度的极大提升。

除了提高性能,降低计算机系统能耗更是个棘手问题。据专家介绍,目前国际上高性能计算的主流体系结构,都建立在上世纪40年代冯·诺伊曼的理论之上,随着时展已面临不少瓶颈。例如,实际应用性能仅有峰值性能的5%10%,许多性能被“放空”;用户无法根据实际应用需求自主参与计算控制,实用性差。这两个缺陷导致计算系统能耗高居不下,目前位列世界前10名的高性能计算系统功耗均在数兆瓦以上,相当于一个中等城市公共照明用电的总量。各大互联网公司的数据中心能耗同样惊人,谷歌公司云计算中心每天的耗电量和整个日内瓦市的耗电量相当。如果未来计算机只是简单地做服务器数量叠加,而不考虑能耗问题,其用电成本将是天文数字。

向结构体系动刀

如何让计算机系统实现真正的高效能运算?邬江兴院士大胆选择了向整个计算机体系架构“动刀”,提出了一种全新的“PRCA体系结构”。在这种新体系下,计算机变得更加“聪明”,它不仅能分析、识别各种应用的类型、需要动用的计算资源,还能据此“调兵遣将”,做到“减有余,补不足”。例如,一个由100台服务器组成的数据中心,50台用于处理和电子邮件相关的指令,50台用于提供视频点播服务。在传统的计算架构下,这种任务分派是一成不变的;但在PRCA架构下,如果视频服务过于集中,50台服务器应接不暇,那么原本为邮件服务待命的服务器,也能 “增援”。这样一来,计算机资源的可持续利用率提高,硬件的更新换代频率有可能将不再频繁。由于所有的计算能力都用在“刀刃”上,整个系统能耗也大大降低。

和传统计算机 “铁板一块”的体系架构不同,这种新概念计算机最大的特点是“会认知”、“柔性可变”。当外界指令输入,算核能根据需要组合出不同的CPU、GPU或者存储器结构来支持运算。结构变成什么样子,完全取决于指令的内容。邬江兴院士将此类比为碳原子碳原子排列结构不同,既可以产生出世界上最坚硬的金刚石,也能够变成较柔软的石墨。

颠覆性创新有待验证

量子计算的特性篇(10)

一、引言与计算的产生

在人类社会的早期时代,加减乘除的概念就被人们所认识到。随着人类文明的发展和技术的进步,对求方程的解,求函数的微分和积分等概念也纳入了计算的范畴。伴随人类生产活动的不断增加,人们对计算的要求也越来越大,计算工具也再不断的改进。

二、远古的计算工具

人们开始产生计算之日,便不断寻求能方便进行和加速计算的工具。因此,计算和计算工具是息息相关的。

早在公元前5世纪,中国人已开始用算筹作为计算工具,并在公元前3世纪得到普遍的采用,一直沿用了二千年。后来,人们发明了算盘,并在15世纪得到普遍采用,取代了算筹。它是在算筹基础上发明的,比算筹更加方便实用,同时还把算法口诀化,从而加快了计算速度。因此源用至今,并流传到海外,成为一种国际性的计算工具。

三、近代计算系统

近代的科学发展促进了计算工具的发展:在1614年,对数被发明以后,乘除运算可以化为加减运算,对数计算尺便是依据这一特点来设计。1620年,冈特最先利用对数计算尺来计算乘除。1850年,曼南在计算尺上装上光标,因此而受到当时科学工作者,特别是工程技术人员所广泛采用。

机械式计算器是与计算尺同时出现的,是计算工具上的一大发明。帕斯卡于1642年发明了帕斯卡加法器。在1671年,莱布尼茨发明了一种能作四则运算的手摇计算器,是长1米的大盒子。自此以后,经过人们在这方面多年的研究,特别是经过托马斯、奥德内尔等人的改良后,出现了多种多样的手摇计算器,并风行全世界。

四、电动计算机

英国的巴贝奇于1834年,设计了一部完全程序控制的分析机,可惜碍于当时的机械技术所限制而没有制成,但已包含了现代计算的基本思想和主要的组成部分了。

此后,由于电力技术有了很大的发展,电动式计算器便慢慢取代以人工为动力的计算器。1941年,德国的楚泽采用了继电器,制成了第一部通用过程控制计算器,实现了100多年前巴贝奇的理想。

五、电子计算机

20世纪初,电子管的出现,使计算器的改革有了新的发展,并由于二次大战的迫切的军事需要,美国宾夕法尼亚大学和有关单位在1946年制成了第一台电子计算器。

电子计算机的出现和发展,让人类进入了一个全新的时代。它极大影响了经济社会发展,并彻底改变了人们的生活。电子计算机是二十世纪最伟大的发明之一,也当之无愧地被认为是迄今为止由科学和技术所创造的最具影响力的现代工具。

在电子计算机和信息技术高速发展过程中,因特尔公司的创始人之一戈登·摩尔(godon moore) 对电子计算机产业所依赖的半导体技术的发展作出预言:半导体芯片的集成度将每两年翻一番。事实证明,自二十世纪60 年代以后的数十年内,芯片的集成度和电子计算机的计算速度实际是每十八个月就翻一番,而价格却随之降低一倍。这种奇迹般的发展速率被公认为“摩尔定律”。

六、 “摩尔定律”与“计算的极限”

人类是否可以将电子计算机的运算速度永无止境地提升? 传统计算机计算能力的提高有没有极限? 对此问题,学者们在进行严密论证后给出了否定的答案。

如果电子计算机的计算能力无限提高,最终地球上所有的能量将转换为计算的结果——造成熵的降低,这种向低熵方向无限发展的运动被哲学界认为是禁止的,因此,传统电子计算机的计算能力必有上限。

而以ibm研究中心朗道(r. landauer) 为代表的理论科学家认为到二十一世纪三十年代,芯片内导线的宽度将窄到纳米尺度(1 纳米= 10-9 米) ,此时,导线内运动的电子将不再遵循经典物理规律——牛顿力学沿导线运行,而是按照量子力学的规律表现出奇特的“电子乱窜”的现象,从而导致芯片无法正常工作;同样,芯片中晶体管的体积小到一定临界尺寸(约5纳米) 后,晶体管也将受到量子效应干扰而呈现出奇特的反常效应。

哲学家和科学家对此问题的看法十分一致:摩尔定律不久将不再适用。也就是说,电子计算机计算能力飞速发展的可喜景象很可能在二十一世纪前三十年内终止。

著名科学家,哈佛大学终身教授威尔逊(edward o. wilson) 指出:“科学代表着一个时代最为大胆的猜想(形而上学) 。它纯粹是人为的。但我们相信,通过追寻“梦想—发现—解释—梦想”的不断循环,我们可以开拓一个个新领域,世界最终会变得越来越清晰,我们最终会了解宇宙的奥妙。所有的美妙都是彼此联系和有意义的。”

这段话成为许多科学家的座右铭,给人以启示。科学需要梦想,甚至需要形而上的猜想。科学的预言有时在哲学看来有着形而上学的味道。而在人类面临着计算科学的最大难题——计算的极限到来之时,dna计算和量子计算为实现人类的这个梦想铺开了宏伟蓝图。

七、dna计算系统

1994年11月,美国计算机科学家阿德勒曼(l.adleman)在美国《科学》上公布dna计算机的理论,并成功运用dna计算机解决了一个有向哈密顿路径问题[7]。 dna计算机的提出,产生于这样一个发现,即生物与数学的相似性:(1)生物体异常复杂的结构是对由dna序列表示的初始信息执行简单操作(复制、剪接)的结果;(2)可计算函数f(ω)的结果可以通过在ω上执行一系列基本的简单函数而获得。

阿德勒曼不仅意识到这两个过程的相似性,而且意识到可以利用生物过程来模拟数学过程。更确切地说是,dna串可用于表示信息,酶可用于模拟简单的计算。这是因为:首先,dna是由称作核昔酸的一些单元组成,这些核昔酸随着附在其上的化学组或基的不同而不同。共有四种基:腺嘌呤、鸟嘌呤、胞嘧啶和胸腺嘧啶,分别用a、g、c、t表示。单链dna可以看作是由符号a、g、c、t组成的字符串。从数学上讲,这意味着可以用一个含有四个字符的字符集∑ =a、g、c、t来为信息编码(电子计算机仅使用0和1这两个数字)。其次,dna序列上的一些简单操作需要酶的协助,不同的酶发挥不同的作用。起作用的有四种酶:限制性内切酶,主要功能是切开包含限制性位点的双链dna;dna连接酶,它主要是把一个dna链的端点同另一个链连接在一起;dna聚合酶,它的功能包括dna的复制与促进dna的合成;外切酶,它可以有选择地破坏双链或单链dna分子。正是基于这四种酶的协作实现了dna计算。

dna计算与电子计算机完全不同,它的计算单元是装在试管培养液中的dna长链。通过控制试管的温度和向试管中投放反应物,来进行计算。

八、量子计算系统

量子计算最初思想的提出可以追溯到20世纪80年代。物理学家费曼richardp.feynman 曾试图用传统的电子计算机模拟量子力学对象的行为。他遇到一个问题[11]:量子力学系统的行为通常是难以理解同时也是难以求解的。以光的干涉现象为例,在干涉过程中,相互作用的光子每增加一个 ,有可能发生的情况就会多出一倍 ,也就是问题的规模呈指数级增加。模拟这样的实验所需的计算量实在太大了,不过,在费曼眼里 ,这却恰恰提供一个契机。

因为另一方面,量子力学系统的行为也具有良好的可预测性:在干涉实验中,只要给定初始条件,就可以推测出屏幕上影子的形状。费曼推断认为如果算出干涉实验中发生的现象需要大量的计算,那么搭建这样一个实验,测量其结果,就恰好相当于完成了一个复杂的计算。因此,只要在计算机运行的过程中,允许它在真实的量子力学对象上完成实验,并把实验结果整合到计算中去,就可以获得远远超出传统计算机的运算速度。

在费曼设想的启发下,1985年英国牛津大学教授多伊奇david deutsch 提出是否可以用物理学定律推导出一种超越传统的计算概念的方法即推导出更强的丘奇——图灵论题[15]。费曼指出使用量子计算机时,不需要考虑计算是如何实现的,即把计算看作由“神谕”来实现的:这类计算在量子计算中被称为“神谕”(oracle)。

有种种迹象表明:量子计算至少在一些特定的计算领域内确实比传统计算更强,例如,现代信息安全技术的安全性在很大程度上依赖于把一个大整数(如1024 位的十进制数) 分解为两个质数的乘积的难度。这个问题是一个典型的“困难问题”,困难的原因是目前在传统电子计算机上还没有找到一种有效的办法将这种计算快速地进行。目前,就是将全世界的所有大大小小的电子计算机全部利用起来来计算上面的这个1024 位整数的质因子分解问题,大约需要28 万年,这已经远远超过了人类所能够等待的时间。而且,分解的难度随着整数位数的增多指数级增大,也就是说如果要分解2046 位的整数,所需要的时间已经远远超过宇宙现有的年龄。而利用一台量子计算机,我们只需要大约40 分钟的时间就可以分解1024 位的整数了。

更重要的是,量子计算从本质上说是可逆的,朗道证明了可逆计算可以不消耗资源———也就是说,量子计算的运算速度可以不违背熵持续增加原理而无限增加。从这个例子我们可以直觉地认为量子计算在处理大规模计算问题时优越性是十分明显的,但目前还没法用数学证明这一点。

九、计算的本质

在人类文明的早期,人们就认识到“加减”这些计算活动,以及它们的重要性。随着,计算工具的不断改进,人们的“计算”本身的也不断的加深了解。到后来开方、求方程的解、求微分求积分也被纳入进计算的范畴。

“什么是计算?”问题一直到20世纪30年,才由哥德尔(k.godel,1906-1978),丘奇(a.church,1903-1995),图灵(a.m.tui-ing,1912-1954)等数学家 的工作,人们才弄清楚什么是计算的本质,以及什么是可计算的,什么是不可计算的等根本性问题。

抽象地说,所谓计算,就是从一个符号串f变换成另一个符号串g。比如说,从符号串12+3变换成15就是一个加法计算。如果符号串f是x2,而符号串g是2x,从f到g的计算就是微分。定理证明也是如此,令f表示一组公理和推导规则,令g是一个定理,那么从f到g的一系列变换就是定理g的证明。从这个角度看,文字翻译也是计算,如f代表一个英文句子,而g为含意相同的中文句子,那么从f到g就是把英文翻译成中文。这些变换间有什么共同点?为 什么把它们都叫做计算?因为它们都是从己知符号(串)开始,一步一步地改变符号(串),经过有限步骤,最后得到一个满足预先规定的符号(串)的变换过程。

从类型上讲,计算主要有两大类:数值计算和符号推导。数值计算包括实数和函数的加减乘除、幕运算、开方运算、方程的求解等。符号推导包括代数与各种函数的恒等式、不等式的证明,几何命题的证明等。但无论是数值计算还是符号推导,它们在本质上是等价的、一致的,即二者是密切关联的,可以相互转化,具有共同的计算本质。随着数学的不断发展,还可能出现新的计算类型。

随着计算机日益广泛而深刻的运用,计算这个原本专门的数学概念已经泛化到了人类的整个知识领域,并上升为一种极为普适的科学概念和哲学概念,成为人们认识事物、研究问题的一种新视角、新观念和新方法。

十、“计算主义”的兴起

随着计算工具的发展,一些哲学家和科学家开始从计算的视角审视世界,科学家们不仅发现大脑和生命系统可被视作计算系统 ,而且发现整个世界事实上就是一个计算系统。当康韦证明细胞自动机与图灵机等价时 ,就有人开始把整个宇宙看作是计算机。因为特定配置的细胞自动机原则上能模拟任何真实的过程。如果真是这样,那么 ,我们便可以设想一种细胞自动机,它能模拟整个宇宙。实际上,我们完全可以把宇宙看作是一个三维的细胞自动机。基本粒子或其它什么层次的物质实体可以看作是这个细胞自动机格点上的物质状态 ,支配它们运动变化的规律可以看作是它们的行为规则。在这些规则的作用下基本粒子发生各种变化,从而导致宇宙的演化。

总之,计算或算法的观念在当今已经渗透到宇宙学、物理学、生物学乃至经济学和社会科学等诸多领域。计算已不仅成为人们认识自然、生命、思维和社会的一种普适的观念和方法 ,而且成为一种新的世界观。一些学者认为:不仅生命和思维的本质是计算,自然事件的本质也是计算。

十一、量子计算中的神谕

人类的计算工具,从木棍、石头到算盘,经过机械计算器,电器计算机,到现代的电子计算机,再到dna计算机和量子计算。笔者发现这其中的过程让人思考:首先是人们发现用石头或者棍棒可以帮助人们进行计算,随后,人们发明了算盘,来帮助人们进行计算。当人们发现不仅人手可以搬动“算珠”,机器可以用来搬动“算珠”,而且效率更高,速度更快的时候,人们自然想到利用机器来搬动算珠,诞生了机械计算设备。

随后,人们用继电器替代了纯机械。最后人们用电子代替了继电器。就在人们改进计算工具的同时,数学家们开始对计算的本质展开了研究,图灵机模型告诉了人们答案。

电子计算机后,人们改变了思路,即:到自然界中去发现那些符合图灵模型的现象,例如dna分子链的自我复制现象。dna分子提供了agct四种碱基,相当于电子计算机中的2进制的0和1。dna自我复制的机制,非常接近电子计算机的的模型——图灵机模型。

可以说,dna计算机是基于图灵机的先进计算方式。但是它始终不能突破图灵机的极限。即:在牛顿经典物理学下“确定世界”的计算模型。

量子计算的出现,则彻底打破了这种认识与创新规律。它建立在对量子力学实验的在现实世界的不可计算性。试图利用一个实验来代替一系列复杂的大量运算。可以说。这是一种革命性的思考与解决问题的方式。

应为在此之前,所有计算均是模拟一个快速的“算盘”,即使是最先进电子计算机cpu内部,64位的寄存器(register),也是等价于一个有着64根轴的二进制算盘。在dna计算中,这种情况稍微复杂一点,可视为atcg四种碱基所构成的拥有上百万根轴,每根轴上有四个珠的“超级算盘”,尽管它的体积小到可以放在一根试管中。

量子计算则完全不同,对于量子计算的核心部件,类似与古代希腊世界中的“神谕”,没有人弄清楚神谕内部的机理,却对“神谕”内部产生的结果深信不疑。人们可以把它当作一个黑盒子,人们通过输入,可以得到输出,但是对于黑盒子内部发生了什么和为什么这样发生确并不知道。

十二、“神谕”的本质与哥德尔不完备性

量子计算在信息的承载体上与经典计算毫无区别:它同样利用二进制比特——称为量子比特——来进行运算。但是,量子力学的一个十分“反直觉”的奇特现象铸就了量子比特与传统比特的天壤之别。一个量子比特不仅仅可以表示信息“0”和“1”,还出人意料地可以表示一种“0”和“1”的叠加状态。

我们可以清晰地看到量子计算的神奇以及它不同于经典计算之处。那么,为什么量子计算会显示出如此奇怪的性质呢? 这些性质又有什么本质的物理原因呢[12]? 遗憾的是,迄今为止,科学家们还在为这些神奇的量子现象的本质而进行探索,答案不得而知。

人们对量子计算本质的无知来自于人们对量子世界内部的本质的认识还不统一。但这并不妨碍人们把量子计算最为超级计算机的想法。虽然它带有强烈的工具主义倾向。

量子计算的科学研究依然在继续,然而,对量子计算和量子力学本身的哲学研究却已经显示出人类的无奈和无助。也许,世界本身就是一个整体,我们仅仅从细处着眼永远无法看到导致整体变化的内因。

哥德尔不完备性定理告诉我们,任何一个足够强的一致的公理系统的完备性是不可证明的,而它的完备性的不可证明是可以证明的。

一些悲观的科学家和哲学家认为:我们科学研究所依赖的各种公理系统是无法证明完备的,即现实世界的有些现象是无法被已有定律和规律来揭示,人们努力地试图用这些已经发现的公理和规律去解释量子计算、量子力学,去解释自然和宇宙是不可行的。科学家们一直在努力解释量子世界的本质,但也应该清醒,这些努力有可能最终是失败的。而这些失败恰恰证明了哥德尔不完备性定理的正确性。所以他们认为人类是无法认识某些规律的,一些迷题永远是个迷。

十三、“神谕”的挑战与人类自身的回应

笔者的观点与上述不同,人类的思考能力,随着工具的不断进化而不断加强,尽管在远古时期,有些智者的思考能力已经远远超越了他们的时代,但是,在整体上,人类的思维能力和解决问题的能力是随着经济和科技的进步而不断加强。电子计算机和互联网的出现,大大加强了人类整体的科研能力,那么,量子计算系统的产生,会给人类整体带来更加强大的科研能力和思考能力,并最终解决困扰当今时代的量子“神谕”。不仅如此,量子计算系统会更加深刻的揭示计算的本质,把人类对计算本质的认识从牛顿世界中扩充到量子世界中。

哥德尔的不完备性并不能组织人类对未知事物的新发现,如果观察历史,会发现人类文明不断增多的“发现”已经构成了我们理解世界的“公理”,人们的公理系统在不断的增大,随着该系统的不断增大,人们认清并解决了许多问题。人类的认识模式似乎符合下面的规律:

“计算工具不断发展——整体思维能力的不断增强——公理系统的不断扩大——旧的神谕被解决——新的神谕不断产生”不断循环。

也许那时会出现新的“神谕”,而“神谕”的出现对人类来说并不是负面的,而是对人类整体思维能力和认识能力的一次挑战。并将刺激着人类对宇宙和自身的更深刻认识。

无论量子计算的本质是否被发现,也不会妨碍量子计算时代的到来。量子计算是计算科学本身的一次新的革命,也许许多困扰人类的问题,将会随着量子计算机工具的发展而得到解决,它将“计算科学”从牛顿时代引向量子时代,并会给人类文明带来更加深刻的影响。

参考文献

[1]m.a.nielsenandi.l.chuang,quantum computation and quantum information. cambridge university press, 2000

[2]a.m.turing,“on computable numbers,with an application to the entscheidungs problem,”proc. lond. math. soc. 2 ,vol.42,pp.230-265,1936

[3]“quantum information scienceand technology quist program ver.2.0”defense advanced research projects agency darpa ,apr.2004

[4] p.w.shor,“algorithms for quantum computation:discrete logarithms and factoring” new mexico: ieee computer society press,1994,pp.124-134

[5]吴楠 由量子计算看科学与哲学的层次观,自然辨证法通讯,vol.29,no.4,pp90-95,2007

[6]李建会 走向计算主义,自然辨证法通讯,vol.25,no.3,pp31-36,2003

[7]adleman,l.m.“molecular computation of solutions to combinatorial problems.” science , 266:1020-24,1994

[8] adleman,l.m. “computing with dna.”scientific american,279 2 :54-61, 1998

[9]d.p.divincenzo,“quantum computation,” science ,vol.270,pp.255-261,1995.

[10]彭罗斯1998:《皇帝新脑》。许明贤等译。长沙:湖南科技出版社

[11] r.p.feynman,“simulatingphysicswithcomputers,”international j. theor. phys. , vol. 1, pp. 467-488, 1982.

[12]a.einstein,b.podolskey,andn.rosen,“can quantum-mechanical description of physical reality be considered complete?”physical review, vol.47,pp.777-780,1935.

上一篇: 网络金融特征 下一篇: 人文教育的本质
相关精选
相关期刊