时间:2024-03-29 14:39:37
引言:寻求写作上的突破?我们特意为您精选了4篇量子计算发展范文,希望这些范文能够成为您写作时的参考,帮助您的文章更加丰富和深入。
中图分类号:P315.69 文献标识码:A文章编号:1005-5312(2011)20-0282-01
一、计算机的发展概况
1946年2月美国宾夕法尼亚大学莫尔学院制成的大型电子数字积分计算机(ENIAC),最初也专门用于火炮弹道计算,后经多次改进而成为能进行各种科学计算的通用计算机。,一直到现在,微机计算机的发展非常迅速。对于微型计算机的发展,现在普遍以字长和典型的微处理器芯片作为划分标志,将微型计算机的发展划分为五个阶段:
第一个阶段主要是字长为4位的微型机和字长为8位的低档微型机。这一阶段的典型微处理器有:世界上第一个微处理器芯片4004,以及随后的改进版4040,它们都是字长为4位的。
第二个阶段主要是字长为8位的中、高档微型机。这一阶段典型的微处理器芯片有:Intel公司的I8080、I8085。
第三个阶段主要是字长为16位的微型机。这一阶段典型的微处理器芯片有:Intel公司的8086/8088/80286。
第四个阶段主要是字长为32位的微型机。这一阶段典型的微处理器芯片有:Intel公司的80386/486/Pentium系列。
第五个阶段出现了字长为64位的微处理器芯片。主要还是面向服务器和工作站等一些高端应用场合。
近年来,如何使处理器中晶体管体积的减小成为计算机性能改进的关键所在。但是,这种不断的减小有一个极限。正如哲学里说,万物有矛盾两面。如果晶体管变得太小,将会限制它的性能。因此,看起来我们的计算机技术,会在不久的将来达到极限,它们真的会吗?在1982年,诺贝尔奖获得者――物理学家Richard Feynman想出了 “量子计算机” 的概念,那是一种利用量子机械的影响作为优势的计算机。说起Richard Feynman是本世纪诞生于美国的最伟大的物理学家,费曼于40年展了用路径积分表达量子振幅的方法,并于1948年提出量子电动力学新的理论形式、计算方法和重正化方法,从而避免了量子电动力学中的发散困难。费曼还建立了解决液态氦超流体现象的数学理论。他和莫雷盖尔曼在弱相互作用领域,做了一些奠基性工作费曼还是一位富有建设性的公众人物。1986年,挑战者号失事后,费曼做了著名的O型环演示实验,只用一杯冰水和一只橡皮环,就在国会向公众揭示了挑战者失事的根本原因-低温下橡胶失去弹性。1965年因量子电动力学方面的贡献获得诺贝尔物理奖。量子计算机概念正是Feynman这个大理论物理学家提出,从而有一段时间,“量子计算机”的想法主要仅仅停留在理论兴趣阶段,但最近的发展令这个想法引起了每一个人的注意。其中一个进步就是一种在量子计算机上计算大量数据的算法的发明,由Peter Shor(贝尔实验室)设计。
三、量子计算机与传统计算机区别
在量子计算机中,基本信息单元叫做一个量子位不同于传统计算机,并不是二进制位而是按照性质四个一组组成的单元。量子位具有这种性质的直接原因是因为它遵循了量子动力学的规律,而量子动力学从本质上说完全不同于传统物理学。量子位不仅能在相应于传统计算机位的逻辑状态0和1稳定存在,而且也能在相应于这些传统位的混合或重叠状态存在。这种现象看起来和人的直觉不符,因为在人类的日常生活中发生的现象遵循的是传统物理规律,而不是量子力学的规律,量子规律只统治原子级的世界。
四、所遇到的问题
Abstract: The development of the computer technology, and infiltrated all walks of life and computer graphic design technology promotion, the computer graphics technology is applied to the calculation of engineering quantity possible, automatic calculation software application and development is the inevitable trend of the building engineering budget.
Key words : the project pre-settlement; automatic calculation software
中图分类号:F811.3文献标识码: A文章编号:2095-2104(2012)
建筑工程预结算是建筑行业中非常重要的一项工作,而工程量计算又是这项工作中至关重要的一部分。如何提高工程量计算的效率、减少其工作量,做到准确无误,一直是工程预算行业急待解决的一个课题。
计算机技术的日益发展,并渗入到各行各业中以及计算机平面设计技术的推广,使得计算机绘图技术应用到工程量计算中成为可能,工程量自动计算软件的应用和发展是建筑工程预结算的必然趋势。
2003年7月我在公司预算处开始从事工程预算工作,刚参加工作时,工程预算对我来说非常陌生,书本理论与实际应用之间差距太大。经过很长一段努力,我的预算技能虽然有所提高,但对于计算规则和定额的深入理解以及计算速度的有效提高等方面仍有相当的不足。
2007年,在参与我公司内蒙古商厦的审计结算工作中,我接触到了鲁班算量软件,同时,在学习和应用当中感受到它给我的工作带来了很大的方便。
(一)在工作方式上,鲁班软件采用的是AutoCad界面和绘图方式,这正是我在校期间的学习内容,所以感觉上手很快,达到熟练程度也比较容易。
当然对于很多初学者来说,软件入门的确有一定的困难,但这只是暂时的,只要我们把握正确的方法,通过正确的渠道,再加上自己的努力就一定能掌握它。
(二)对于工程量计算规则,其中大部分已经在鲁班软件中设置完毕,我们只要稍做修改就可以正确应用。
显而易见,工程量计算软件为预算初学者提供了学习的捷径。因为老预算员精通定额,熟练掌握计算规则,但计算机水平都不是很高,而对于初学者来说计算机操作是我们的优势,计算规则已经由软件定义,我们就可以先入门学习软件再逐渐熟悉定额和计算规则。通过这种方式我感到预算水平提高很快。
(三)在工作步骤上,使用工程量计算软件省略了原先的计算书汇总、上表套定额的手工工序,完全由计算机自动完成,极大程度上节省了时间。
在工作效率上,以前用手工算量大约用一星期才能完成的工程量,用算量软件五天就能完成。
(四)在采用的工作方式上,鲁班软件采用AutoCad绘图方式,省略了手工计算时使用的铅笔、橡皮、计算器和大量的工程量计算书等耗材,简化了手写计算式的步骤和手按计算器计算的繁复工作,在极大程度上实现了无纸办公。
(五)在打印输出格式上,鲁班软件打印输出的整洁版面是手工书写无法比拟的,其格式明确,计算公式详细,汇总方式合理,做为预算资料的保存和查阅十分适用。
另外,在核对工程量时,还可以利用电子计算书的分类汇总和条件汇总功能,在计算机中随时调用有用的数据,减少了手工计算书不易分类、不易汇总的麻烦。
再有,软件提供了自动输出到TXT、EXCEL、XML多种文件形式,极大程度上方便了各种用户的转化与应用。
(六)图形算量软件作为一种高科技含量的新兴技术产业,具有很大的发展前景,通过每一次的软件不定期升级,软件必将越做越成熟,越做越合乎人性化设计。到目前为止,该软件已经由最初的2007版升级到2008版,而且2009版已经在网上公布并进入全国巡回展览阶段。
虽然中国高性能计算已经取得了里程碑性的成绩,但是科研工作者的脚步不会停止。他们已经在思考未来的发展方向在哪里,并将目光瞄向了“天然的超级计算机”―量子计算机。
“杞人忧天”的物理学家们与量子计算机的诞生
量子计算机的诞生和著名的摩尔定律有关,还和“杞人忧天”的物理学家们有关。
众所周知,摩尔定律的技术基础是不断提高电子芯片的集成度(单位芯片的晶体管数)。集成度不断提高,速度就不断加快,我们的手机、电脑就能不断更新换代。
20世纪80年代,摩尔定律很贴切地反映了信息技术行业的发展,但“杞人忧天”的物理学家们却提出了一个“大煞风景”的问题: 摩尔定律有没有终结的时候?
之所以提出这个问题,是因为摩尔定律的技术基础天然地受到两个主要物理限制。
一是巨大的能耗,芯片有被烧坏的危险。芯片发热主要是因为计算机门操作时,其中不可逆门操作会丢失比特。物理学家计算出每丢失一个比特所产生的热量,操作速度越快,单位时间内产生的热量就越多,算机温度必然迅速上升,这时必须消耗大量能量来散热,否则芯片将被烧坏。
二是为了提高集成度,晶体管越做越小,当小到只有一个电子时,量子效应就会出现。此时电子将不再受欧姆定律管辖,由于它有隧道效应,本来无法穿过的壁垒也穿过去了,所以量子效应会阻碍信息技术继续按照摩尔定律发展。
所谓隧道效应,即由微观粒子波动性所确定的量子效应,又称势垒贯穿。它在本质上是量子跃迁,粒子迅速穿越势垒。在势垒一边平动的粒子,当动能小于势垒高度时,按照经典力学的说法,粒子是不可能越过势垒的;而对于微观粒子,量子力学却证明它仍有一定的概率贯穿势垒,实际上也的确如此。
这两个限制就是物理学家们预言摩尔定律会终结的理由所在。
虽然这个预言在当时没有任何影响力,但“杞人忧天”的物理学家们并不“死心”,继续研究,提出了第二个问题:如果摩尔定律终结,在后摩尔时代,提高运算速度的途径是什么?
这就导致了量子计算概念的诞生。
量子计算所遵从的薛定谔方程是可逆的,不会出现非可逆操作,所以耗能很小;而量子效应正是提高量子计算并行运算能力的物理基础。
甲之砒霜,乙之蜜糖。它们对于电子计算机来说是障碍的量子效应,对于量子计算机来说,反而成了资源。
量子计算的概念最早是1982年由美国物理学家费曼提出的。1985年,英国物理学家又提出了“量子图灵机”的概念,之后许多物理学家将“量子图灵机”等效为量子的电子线路模型,并开始付诸实践。但当年这些概念的提出都没有动摇摩尔定律在信息技术领域的地位,因为在相当长的时间内,摩尔定律依然在支撑着电子计算机的运算速度的飞速提高。
直到今年,美国政府宣布,摩尔定律终结了。微电子未来的发展是低能耗、专用这两个方向,而不再是追求速度。
由此可见,基础研究可能在当时看不到有什么实际价值,但未来却会发挥出巨大作用。
量子计算机虽然好,研制起来却非常难
量子计算机和电子计算机一样,其功用在于计算具体数学问题。不同的是,电子计算机所用的电子存储器在某个时间只能存一个数据,它是确定的,操作一次就把一个比特(bit,存储器最小单元)变成另一个比特,实行串行运算模式;而量子计算机利用量子性质,一个量子比特可以同时存储两个数值,N个量子比特可以同时存储2的N次方数据,操作一次会将这个2的N次方数据变成另外一个2的N次方数据,以此类推,运行模式为一个CPU的并行运算模式,运行操作能力指数上升,这是量子计算机来自量子性的优点。量子计算本来就是并行运算,所以说量子计算机天然就是“超级计算机”。
要想研制量子计算机,除了要研制芯片、控制系统、测量装置等硬件外,还需要研制与之相关的软件,包括编程、算法、量子计算机的体系结构等。
一台量子计算机运行时,数据输入后,被编制成量子体系的初始状态,按照量子计算机欲计算的函数,运用相应的量子算法和编程,编制成用于操作量子芯片中量子比特幺正操作变换,将量子计算机的初态变成末态,最后对末态实施量子测量,读出运算的结果。
一台有N个量子比特的量子计算机,要保证能够实施一个量子比特的任意操作和任意两个量子比特的受控非操作,才能进行由这两个普适门操作的组合所构成的幺正操作,完成量子计算机的运算任务。这是量子芯片的基本要求。如果要超越现有电子计算水平,需要多于1000个量子比特构成的芯片。目前,这还无法实现。这种基于“量子图灵机”的标准量子计算是量子计算机研制的主流。
除此以外,还有其他量子计算模型,如单向量子计算、分布式量子计算,但其研制的困难程度并没有减小。另外,还有拓扑量子计算、绝热量子计算等。
由于对硬件和软件的全新要求,量子计算机的所有方面都需要重新进行研究,这就意味着量子计算是非常重要的交叉学科,是需要不同领域的人共同来做才能做成的复杂工程。
把量子计算机从“垃圾桶”捡回来的量子编码与容错编码
实现量子计算最困难的地方在于,这种宏观量子系统是非常脆弱的,周围的环境都会破坏量子相干性(消相干),一旦量子特性被破坏,将导致量子计算机并行运算能力基础消失,变成经典的串行运算。
所以,早期许多科学家认为量子计算机只是纸上谈兵,不可能被制造出来。直到后来,科学家发明了量子编码。
量子编码的发现等于把量子计算机从“垃圾桶”里又捡回来了。
采用起码5个量子比特编码成1个逻辑比特,可以纠正消相干引起的所有错误。
不仅如此,为了避免在操作中的错误,使其能够及时纠错,科学家又研究容错编码,在所有量子操作都可能出错的情况下,它仍然能够将整个系统纠回理想的状态。这是非常关键的。
什么条件下能容错呢?这里有个容错阈值定理。每次操作,出错率要低于某个阈值,如果大于这个阈值,则无法容错。
这个阈值具体是多大呢?
这与计算机结构有关,考虑到量子计算的实际构型问题,在一维或准一维的构型中,容错的阈值为10^-5,在二维情况(采用表面码来编码比特)中,阈值为10^-2。
目前,英国Lucas团队的离子阱模型、美国Martinis团队的超导模型在单、双比特下操作精度已达到这个阈值。
所以,我们的目标就是研制大规模具有容错能力的通用量子计算机。
量子计算机的“量子芯”
量子芯片的研究已经从早期对各种可能的物理系统的广泛研究,逐步聚焦到了少数物理系统。
20世纪90年代时,美国不知道什么样的物理体系可以做成量子芯片,摸索了多年之后,发现许多体系根本不可能最终做成量子计算机,所以他们转而重点支持固态系统。
固态系统的优点是易于集成(能够升级量子比特数目),但缺点是容错性不好,固态系统的消相干特别严重,相干时间很短,操控误差大。
2004年以来,世界上许多著名的研究机构,如美国哈佛大学、麻省理工学院、普林斯顿大学,日本东京大学,荷兰Delft大学等都做了很大的努力,在半导体量子点作为未来量子芯片的研究方面取得了一系列重大进展。最近几年,半导体量子芯片的相干时间已经提高到200微秒。
国际上,在自旋量子比特研究方面,于2012年做到两个比特之后,一直到2015年,还是停留在四个量子点编码的两个自旋量子比特研究上,实现了两个比特的CNOT(受控非)。
虽然国际同行关于电荷量子比特的研究比我们早,但是至今也只做到四个量子点编码的两个比特。我们研究组在电荷量子比特上的研究,2010年左右制备单个量子点,2011年实现双量子点,2012~2013年实现两个量子点编码的单量子比特, 2014~2015年实现四量子点编码的两个电荷量子比特。目前,已研制成六个量子点编码为三个量子比特,并实现了三个比特量子门操作,已经达到国际领先水平。
超导量子芯片要比半导体量子芯片发展得更快。
近几年,科学家使用各种方法把超导的相干时间尽可能拉长,到现在已达到了100多微秒。这花了13年的基础研究,相干时间比原来提高了5万倍。
超导量子计算在某些指标上有更好的表现,比如:
1.量子退相干时间超过0.1ms,高于逻辑门操作时间1000倍以上,接近可实用化的下限。
2.单比特和两比特门运算的保真度分别达到99.94%和99.4%,达到量子计算理论的容错率阈值要求。
3.已经实现9个量子比特的可控耦合。
4.在量子非破坏性测量中,达到单发测量的精度。
5.在量子存储方面,实现超高品质因子谐振腔。
美国从90年代到现在,在基础研究阶段超导领域的突破已经引起了企业的重视。美国所有重大的科技公司,包括微软、苹果、谷歌都在量子计算机研制领域投入了巨大的力量,尽最大的努力来争夺量子计算机这块“巨大的蛋糕”!
其中,最典型的就是谷歌在量子计算机领域的布局。它从加州大学圣芭芭拉分校高薪引进国际上超导芯片做得最好的J. Matinis团队(23人),从事量子人工智能方面的研究。
他们制定了一个目标―明年做到50个量子比特。定这个目标是因为,如果能做49个量子比特的话,在大数据处理等方面,就远远超过了电子计算机所有可能的能力。
整体来看,量子计算现在正处于“从晶体管向集成电路过渡阶段”。
尚未研制成功的量子计算机,我们仍有机会!
很多人都问,实际可用的量子计算机究竟什么时候能做出来?
中国和欧洲估计需要15年,美国可能会更快,美国目前的发展确实也更快。
量子计算是量子信息领域的主流研究方向,从90年代开始,美国就在这方面花大力气进行研究,在硬件、软件、材料各个方面投入巨大,并且它有完整的对量子计算研究的整体策划,不仅各个指标超越世界其他国家,各个大公司的积极性也被调动了起来。
美国的量子计算机研制之路分三个阶段:第一阶段,由政府主导,主要做基础研究;第二阶段,企业开始投入;第三阶段,加快产出速度。
【分类号】:TM743
1.概述
量子计算是计算机科学与量子力学相结合的产物,根据Moore定律可知:当计算机的存储单元达到原子层次时,显著地量子效应将会严重影响计算机性能,计算机科学的进一步发展需要借助新的原理和方法【1】,量子计算为这一问题的解决提供了一个可能的途径。
根据量子计算原理设计的量子计算机是实现量子计算的最好体现。量子计算机是利用微观粒子状态来进行存储和处理信息的计算工具【2】。其基本原理是通过物理手段制备可操作的量子态,并利用量子态的叠加性、纠缠性和相干性等量子力学的特性进行信息的运算、保存和处理操作,从本质上改变了传统的计算理念。
量子通信是量子理论与信息理论的交叉学科,是指利用量子的纠缠态实现信息传递的通讯方式。量子的纠缠态是指:相互纠缠的两个粒子无论被分离多远,一个粒子状态的变化都会立即使得另一个粒子状态发生相应变化的现象。量子通信主要包括两类:用于量子密钥的传输,和用于量子隐形传态和量子纠缠的分发。与传统的通信技术相比,量子通信具有容量大,传输距离远和保密性强的特点。
2.量子计算基础
2.1 量子位
计算机要处理数据,必须把数据表示成计算机能够识别的形式。与经典计算机不同,量子计算机用量子位来存储信息,量子位的状态既可以是0态或1态,也可以是0态和1态的任意线性叠加状态。一个n位的量子寄存器可以处于 个基态的相干叠加态 中,即可以同时存储 种状态。因此,对量子寄存器的一次操作就相当于对经典计算机的 次操作,也就是量子的并行性。
2.2.量子逻辑门
对量子位的态进行变换,可以实现某些逻辑功能。变化所起到的作用相当于逻辑门的作用。因此,提出了“量子逻辑门”【3】的概念,为:在一定时间间隔内,实现逻辑变换的量子装置。
量子逻辑门在量子计算中是一系列的酉变换,将酉矩阵作为算符的变换被成为酉变换。量子位的态 是希尔伯特空间(Hilbert空间)的单位向量,实现酉变换后希尔伯特空间,在希尔伯特空间内仍为单位向量。【4】
3.量子算法
量子算法的核心就是利用量子计算机的特性加速求解的速度,可以达到经典计算机不可比拟的运算速度和信息处理功能。目前大致五类优于已知传统算法的量子算法:基于傅里叶变换的量子算法,以Grover为代表的量子搜素算法,模拟量子力学体系性质的量子仿真算法,“相对黑盒”指数加速的量子算法和相位估计量子算法。
3.1基于傅里叶变换的量子算法
Shor于1994年提出大数质因子分解量子算法,而大数质因子分解问题广泛应用在RSA公开密钥加密算法之中,该问题至今仍属于NP难度问题。但是Shor算法可以在量子计算的条件下,在多项式时间内很有效地解决该问题。这对RSA的安全性有着巨大的挑战。
Shor算法的基本思想是:利用数论相关知识,通过量子并行特点,获得所有的函数值;再随机选择比自变量小且互质的自然数,得到相关函数的叠加态;最后进行量子傅里叶变换得最后结果。构造如下函数:
就目前而言,该算法已经相对成熟,对其进行优化的空间不大。目前研究者的改进工作主要是:通过对同余式函数中与N互质的自然数选择的限制,提高算法成功的概率。Shor算法及其实现,对量子密码学和量子通信的发展有着极重要的价值。[7]
3.2以Grover为代表的量子搜素算法
3.2.1 Grover算法
Grover算法属于基于黑箱的搜索算法,其基本思想为:在考虑含有 个数据库的搜索问题,其中搜索的解恰好有 个,将数据库中的每个元素进行量化后,存储在 个量子位中, 与 满足关系式 。【8】将搜索问题表示成从0到 的整数 ,其中函数 定义为:如果 是需要搜索的解, ;若不是需要搜索的解,那么 。【12】
具体算法如下:
(1)初始化。应用Oracle算子 ,检验搜索元素是否是求解的实际问题中需要搜索的解。
(2)进行Grover迭代。将结果进行阿达马门(Hadamard门)变换。
(3)结果进行 运算。
(4)结果进行阿达马门变换。【12】
4. 量子智能计算
自Shor算法和Grover算法提出后,越来越多的研究员投身于量子计算方法的计算处理方面,同时智能计算向来是算法研究的热门领域,研究表明,二者的结合可以取得很大的突破,即利用量子并行计算可以很好的弥补智能算法中的某些不足。
目前已有的量子智能计算研究主要包括:量子人工神经网络,量子进化算法,量子退火算法和量子免疫算法等。其中,量子神经网络算法和量子进化算法已经成为目前学术研究领域的热点,并且取得了相当不错的成绩,下面将以量子进化算法为例。
量子进化算法是进化算法与量子计算的理论结合的产物,该算法利用量子比特的叠加性和相干性,用量子比特标记染色体,使得一个染色体可以携带大数量的信息。同时通过量子门的旋转角度表示染色体的更新操作,提高计算的全局搜索能力。
目前量子进化算法已经应用于许多领域,例如:工程问题、信息系统、神经网络优化等。同时,伴随着量子算法的理论和应用的进一步发展,量子进化算法等量子智能算法有着更大的发展前景和空间。
参考文献
1.王书浩,龙桂鲁.大数据与量子计算
2.张毅,卢凯,高颖慧.量子算法与量子衍生算法
3.Deutsch D,Jozsa R.Rapid solution of problems by quanturm computation[C]//Proc Roy Soc London A,1992,439:553-558
4.吴楠,宋方敏。量子计算与量子计算机
5.苏晓琴,郭光灿。量子通信与量子计算。量子电子学报,2004,21(6):706-718
6. White T.Hadoop: The Defintive Guide,California:O’Reilly Media,Inc.2009:12-14
7.王蕴,黄德才,俞攸红.量子计算及量子算法研究进展.
8.孙吉贵,何雨果.量子搜索算法.软件学报,2003,14(3):334-344
9.龙桂鲁.量子计算算法介绍