当前位置:首页 > 消费电子 > 消费电子
[导读] 2019年10月23日或许将是人类史上值得纪念的日子,但也可能不是。在这一天,谷歌正式在《Nature》上发表了他们关于验证“量子优越性”(即在特定任务上量子计算机远远优于传统计算机)的论文,并被Nature放在期刊封面。

近日,谷歌正式在《Nature》上发表了他们关于验证“量子优越性”(即在特定任务上量子计算机远远优于传统计算机)的论文,并被Nature放在期刊封面。谷歌CEO桑达尔·皮查伊(Sundar Pichai)为此撰文表示,这项工作是人类首次在实验上验证了“量子优越性”,它在量子计算的历史上将具有里程碑的意义,因为它意味着量子计算的时代将会到来。

在这篇论文中,谷歌声称他们用54个量子比特的数组达到了量子优越性,在200秒内完成规定操作,而相同的运算在当今世界最大的超算summit上则需要10000年才能完成。

 

 

皮查伊将这项研究比作莱特兄弟的首飞,虽然当时的飞行器非常简陋,飞行时间只持续了12秒,完全没有实用价值,但这却是人类迈向天空的第一步,随之而来的是人类征服了整个天空。

一、原理

量子计算最早是由物理学家费曼80年代早期在一次演讲中提出的,不同于传统的计算机,量子计算机用来存储数据的对象是量子比特,它使用量子算法来进行数据操作。

抽象来讲,传统计算机就是一个“对输入信号序列按照一定算法进行变换的机器,其算法由计算机内部逻辑电路实现”[1]。例如输入信号序列为“0”,对其进行“非”操作,NOT(0) = 1。这种逻辑方式对我们来讲是非常容易理解的,正像牛顿力学来源于经验一样,传统计算机的逻辑方式与我们日常经验的“要么是(1),要么非(0),非的反面为是(NOT(0) = 1)”吻合。

 

 

然而我们的日常生活也并非完全的“是”“非”分明,往往则是“是”中有“非”,“非”中有“是”,“是”或“非”只是事态的两个极端。在量子力学中,正是这种思维。

量子力学中常用“态”(这是一个希尔伯特空间的向量)来描述一个系统。例如传统计算机的输入序列01,用量子力学的语言描述即|01>。传统计算机中态与态(向量与向量)之间只能是正交的,例如|01>与|00>不可能同时出现,这本质上就是或“是”或“非”的观点。显然对于这些正交态的操作也必须是正交的变换。

 

 

然而在量子计算机中,扩展了传统计算机原有的限制。量子计算机的输入用一个具有有限能级的量子系统来描述(这样才能有确定的离散态),如二能级系统(qubits)。对于具有两比特的量子计算机来讲,其输入态的表示为

 

 

也即这四种状态可以是同时存在的(取决于前面的系数,你可以简单理解为四个相互正交的向量之间的叠加)。由于表示上没有限制,在量子计算机中的变换(即量子计算)则包括了所有可能的正变换。得出输出态之后,量子计算机对输出态进行一定的统计测量,从而便可以得到计算结果。

从以上对比可以看出,传统计算机中的状态只是量子计算机中多个叠加分量中的一个,传统计算机上一次只能对其中一个分量进行一次操作(A),例如A |00> = |01>。然而量子计算机上的每一次操作同时作用在所有的叠加分量上,

 

 

所有这些传统计算可以同时完成,并按一定的概率振幅叠加起来,给出量子计算机的输出结果。这便是量子并行计算。

 

 

可以做个类别,传统计算机在半导体器件就像是一个单一的乐器,一个拍子一个声音;而量子计算机则是一个交响乐团,一个拍子可以同时发出许多高低不同、音色不同的声音。[1]

按照这种逻辑,如果是一个10位元的量子计算机,它的一次操作便等同于传统计算机1024(2^10)次操作。当位元数增大时,这种比例还要以指数级增长,例如一个40位元的量子计算机,就能在很短时间内解开1024位元计算机花上数十年解决的问题。

为开拓出量子计算机巨大的并行处理能力,必须寻找适用于这种量子计算的有效算法,毕竟算法是计算的灵魂。

1994年,Shor开发除了第一个量子算法,可以用多项式的复杂度进行大数因子分解,可以在秒的时间量级上实现1000位数的因子分解,而同样的问题在传统计算机上可能需要10^25年才能完成。

1997年Grover发现了一个真正有实用价值的量子算法,即所谓的量子搜索算法,可以平方根地加速无序数据库的搜索,从100万个无序电话号码中平均只需要操作1000次便可以获得正确答案,而经典的方法则平均需要50万次。

这些算法显示出量子计算机具有超越经典计算机的强大功能,立即引起了学术界和西方国家的国防安全部门的重视,这也极大地推动了量子计算机研究的发展,从此量子计算机的研究也成为了国际上持续的前沿研究领域。

二、技术路线

对于稍微了解量子力学的人来讲,量子计算机的原理都是非常简单的。但是如何去设计并制造出这样一台能够实用的量子计算机呢?这给相关的研究人员提出了巨大的实验上和理论上的挑战。

对于如何在硬件上实现量子计算机,经过几十年的探索,目前来看有以下几种方法[2]:

 

 

所谓“囚禁离子”,即用精心调制的激光脉冲制造一个势能阱来困住离子,使它们进入叠加态。这也是最早使用的量子逻辑门背后的技术。这种技术有完美的再现性(reproductivity),长生命周期,不错的激光可控性,但实现起来却并不容易,在17年的时候,研发这一技术的ionQ也仅能把五个量子比特加入到可编程设备中。

随着超导技术的发展,2010 年开始,囚禁离子技术遭遇了强大的挑战者: 超导体制成的电流回路。这方面的技术代表是谷歌和IBM(所以可以想见为什么当谷歌发表“量子优越性”的研究时IBM第一个站出来质疑,不是冤家不聚头)。所谓超导体是由接近绝对零度时、电阻为0的物质。量子比特的 0 和 1 由不同的电流强度表示。该技术有许多吸引人的优点:1、电流回路可以被肉眼观察到 ;2、使用简单的微波仪器就能控制,不需要对操作要求苛刻的激光;3、使用传统计算机芯片制造技术就能生产;4、运转速度非常快。但是,超导技术有一个致命缺陷:环境噪音。即使是控制设备的噪音,也能在远远不足一微秒的瞬间扰乱量子叠加。如今工程技术的优化,已使电路的稳定性提高了近百万倍,所以量子叠加状态可以维持数十微秒,但这仍远远不如离子。

 

 

其他另辟蹊径的包括D-Wave的量子退火方法。2007 年,加拿大初创公司 D-Wave Systems 宣布,他们使用 16 个超导量子比特成功制成量子计算机。这个宣布最初震惊了世界,不过人们发现D-Wave 的机器并没有使所有的量子比特发生纠缠,并且不能一个量子比特接着一个量子比特地编程,而是使用了“量子退火”的技术,每个量子比特只和临近的量子比特纠缠并交互,这并没有建立起一组并行计算,而是一个整体上的、单一的量子状态。D-Wave 开发者希望把复杂的数学问题映射到该状态,然后使用量子效应寻找最小值。对于优化问题(比如提高交通效率的)来说,这是一项很有潜力的技术。但批评者们指出:D-Wave 并没有攻克许多公认的量子计算难题,比如错误修正。包括谷歌和洛克希德马丁在内的几家公司,购买并测试了 D-Wave 的设备,他们初步的共识是,D-Wave 做到了一些能称之为量子计算的东西,而且在处理一些特定任务时,他们的设备确实比传统计算机要快。

其次是英特尔为代表的硅量子点技术,这也经常被称为“人造原子”。一个量子点的量子比特是一块极小的材料,像原子一样,它身上电子的量子态可以用来作为叠加态。不同于离子或原子,量子点不需要用激光来困住它。早期的电子点用几近完美的砷化镓晶体制作,但研究人员们更倾向于硅,因为可以借助半导体产业的巨大产能。但目前来看,基于硅的量子比特研究,大大落后于囚禁离子和超导量子技术。

另一个具有代表性的则是微软选择的基于非阿贝尔任意子(nonabelian anyons)的拓扑量子比特( topological qubits)。这些已经不再是具体的物体,而是沿着物质边缘游动的准粒子(quasiparticles),它们的量子态由不同的交叉路线(braiding paths)来实现。因为交叉路线的形状导致了量子叠加,它们会受到拓扑保护(topologically protected)而不至于崩溃,这类似于打结的鞋带不会散开。这也意味着,理论上拓扑量子计算机不需要在错误修正上花费那么多量子比特。不过这种技术最终是否能够在实验上做出来,仍然待定。

钻石空位的方法本质上即利用钻石中的瑕疵作为量子比特。具体来讲,钻石的碳原子形成了正四面体的结构,而研究者将其中的一个碳原子替换为氮原子,形成一个氮晶格空位中心,游离的氮原子核和多出的一个电子共同构成了两个量子比特。(更准确地说,是用它们的“自旋”来作为量子比特)这种方法不需要低温、激光等极端技术要求,室温下即可实现,但缺点在于并不是那么容易实现量子态的纠缠。

这里需要指出的是,尽管当前各家企业在媒体中都有炒作其在该领域的先进性,但事实上没有人对量子计算有足够的了解,未来的量子计算机最终会采用哪种技术并没有定论。甚至有人认为“未来的量子计算机很可能是一个混合体,由超快的超导体量子比特对算法进行运算,然后把结果扔给更稳定的离子存储;与此同时,光子在机器的不同部件之间或量子网络的节点之间传递信息。”

三、量子优越性

量子计算机的研制是一个极具挑战且周期可能较长的工作,尽管近年来量子计算的规模逐渐发展到50个左右,但真正具备实用化的通用量子计算机可能只是需要10万-100万量级的量子比特。因此为了推动量子计算机的研制,就必须把整个过程划分为一个个的小目标,根据这些小目标来不断向最终的成功靠近。

 

 

今年9月份在合肥举办的新兴量子技术国际大会的白皮书上提到了当前量子计算的研究路线:“为了领域的健康长期发展,除了要在基础研究领域做好操纵精度、可容错之外,规模化、实用性的量子计算研究可以沿如下路线开展。第一个阶段是实现‘量子优越性’,即量子模拟机针对特定问题的计算能力超越经典超级计算机,这一阶段性目标可在近期实现。第二个阶段是实现具有应用价值的专用量子模拟系统,可在组合优化、量子化学、机器学习等方面发挥效用。第三个阶段是实现可编程的通用量子计算机,能在经典密码破解、大数据搜索、人工智能等方面发挥巨大作用。实现通用可编程量子计算机还需要全世界学术界的长期艰苦努力。” [4]

谷歌量子 AI 团队所针对的问题正是随机量子线路采样。据中科大黄合良博士介绍,所谓随机量子线路,即“随机从一个量子门的集合中挑选单比特量子门,作用到量子比特上,每作用一层单比特量子门,就会接着做一层两比特量子门,多次重复这样的操作后,测量最终的量子态,即完成一次采样。”[4] 已经有很多理论证明了随机量子线路采样的困难性,但这种问题却比较适合在二维结构的超导量子计算芯片上实现,这也是谷歌选择这个问题的原因。

我们来看“量子优越性”的定义:量子模拟机针对特定问题的计算能力超越经典超级计算机。这里的“特定问题”,即经过精心设计,非常适合于量子计算设备发挥其计算潜力的问题。例如随机量子线路采样、IQP 线路、玻色采样等[4]。

 

 

另外还有IQP线路、玻色采样的问题。值得一提的是,中科大的相关团队一直在尝试解决光子玻色采样的问题,并处于国际领先地位。且巧合的是在谷歌发布研究的同一天,中科大在在arXiv上公布了他们的最新成果(arXiv: 1910.09930):20光子输入60*60模式的玻色采样。“论文打破了光子数、模式数、量子态空间三项国际记录,宣称首次达到了百万亿级的输出量子态空间,比之前国际光学同行的工作提高了百亿倍。中国团队有望在光学玻色采样问题上实现量子优越性。”[4]

 

 

回到谷歌最新声称的实现“量子优越性”的事情上。为了证明“量子优越性”,谷歌选择了目前世界排名第一的超算“Summit”进行对比。论文中提到他们在自己的量子芯片Sycamore上进行53比特(本来是6×9=54个量子比特,但不幸坏了一个,但因为坏掉的那个在边缘,因此基本上不影响最终实验结果)、20深度的量子随机线路采样,如前面提到的,用时200秒可以采样100万次,且结果的保真度约0.2%;相同的操作在Summit上,谷歌预计要耗时1万年(保真度0.1%)。谷歌也正是基于这种对比而宣称的“量子优越性”。

 

 

事实上,从今年6月份便一直有媒体传言谷歌实现了“量子优越性”。但直到9月20日,英国《金融时报》首次有实锤地报道了谷歌“200秒与10000年”的量子优越性的研究,当时引起了圈内人士特别的重视。但谷歌迅速删除了发布在NASA网站上的文章。

 

 

但10月21日,在量子计算领域与谷歌有竞争关系的IBM同时发布论文和博客指称,谷歌所谓要花1万年的计算,传统计算机事实上在2.5天内就能完成,也即可能稍微再优化一下算法或硬件的配置,谷歌所谓的“优越性”可能就不再是“优越”了。

黄合良博士解释说:“量子优越性” 代表了两个方面的竞争,一方面量子芯片的比特数和性能不断扩张,在某些问题上展现出极强的计算能力;另一方面,经典算法和模拟的工程化实现也可以不断优化,提升经典算法的效率和计算能力。所以,如果能够提升经典模拟的能力,那么谷歌的量子设备有可能就无法打败最强超算,从而“称霸”失败。实际上这是极有可能的,因为谷歌也无法保证他们在做经典模拟时已经达到了最优,包括他们所使用的薛定谔-费曼算法,以及对超算工程化实现的优化。[4]

在随后谷歌进行的一场媒体沟通会上,面对记者的提问,谷歌AI量子的研究人员表示:“我们已经摆脱了传统计算机的束缚,走向了新的道路。我们欢迎提高仿真技术的建议,尽管对我们来说,在实际的超级计算机上对其进行测试至关重要。”[5]

四、未来之路

无论谷歌这次的工作是否真的验证了“量子优越性”,2019年或2020年都将成为量子计算的转折点。近几年,以上提到的各种量子计算机的体系都有很大的进展,例如以谷歌为代表的超导回路的技术体系已经突破了50比特的规模,而离子、原子体系也已经突破了20比特,光子体系突破了18比特纠缠。[4]

 

 

图片来源[6]

因此可以预期的是,在接下来的时间里将会有一大批的企业、高校实现“量子优越性”,然后集体奔向下一个目标,即实现具有应用价值的专用量子模拟系统。

 

 

就谷歌来讲,他们接下来的将是:1)扩大量子系统的规模,从50的量级进一步地提升以达到能够使用的规模,例如10^3;2)提高操作的精度,将错误率降下来,目前他们的错误率还在1%的水平,他们的下一步目标则是将错误率降到1/1000。

伴随着这样的提升(从前面的一张图上可以看出),量子计算将在部分的任务上进入实用性阶段,例如对于生物分子的量子模拟、构建量子机器学习、对物理中的能带隧穿进行量子优化等。

 

 

再下一步才会是真正的通用量子计算机,这要求量子比特数达到10^6,错误率则要更低。从此至彼,会是多久呢?也许只是十年。

量子计算领域内的突破值得人类为之兴奋,谷歌量子优越性论文的发布也标志着人类走进了这一科研领域的新阶段,创新精神是推动科技发展的内核,而阶段性的成无疑是鼓舞我们继续前行最好的加速器。

如果这真的是一场革命而非宣传性的哗众取宠,如果量子计算的时代将会到来,你最新做什么?

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭
关闭