前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >新年,向新时代的量子计算机致敬

新年,向新时代的量子计算机致敬

作者头像
时间之外沉浮事
发布2020-02-12 11:56:34
6190
发布2020-02-12 11:56:34
举报

一、前言


在科学技术浪潮不断更迭发展的今天,我们再次讨论计算机,已经需要将计算机分为经典计算机和量子计算机了。经典计算机就是我们现在常规意义上的计算机,基于冯·诺依曼体系架构。经典计算机在我们的世界已经存在太长时间,解决了很多问题,比如计算两个数的乘积。但是反过来,计算某个数是哪两个数的乘积?经典计算机就比较麻烦,必须得使用穷举法来进行枚举,所以当需要计算的数字很大的时候,就需要很多的计算量,如果要足够快,就必须使用超级计算机等来加快速度。而量子计算机就是解决这种问题的,使用量子计算机直接就可以秒算出今天需要超级计算机计算数天甚至数月的这类问题。此外,当今我们的计算问题上,已经完成数据积累和数据初始阶段,计算上升到大数据计算和优化的问题上,也就是说我们需要计算出很多种可能性,并且找出当前最优的可能性。这种计算最优解的问题是量子计算机出现的意义和价值所在,也是当前人工智能的计算需要解决的问题,所以从历史发展和科技进步来看,我们的计算已经到了另外一个高度,由经典计算机进入量子计算机。有很多的实例可以证明经典计算机已经处于历史的边缘,新生代的计算体系已经诞生。

二、经典计算机的极限就是量子计算机的起点


经典计算机其实是基于硅计算的一种计算机,其中,基于硅计算的计算机受限于摩尔定律的预测。摩尔定律是经典计算机一个常见的讨论话题,涉及基于硅计算机处理器中晶体管的发展。经典计算机处理器由模块组成,模块由逻辑门组成,逻辑门由晶体管组成。晶体管是数据处理器的最简单形式,并承担阻塞或传递位的责任。它们依靠电路对开关进行通断来实现阻挡或允许电子通过。基于对晶体管制造工艺及尺寸的观察和分析,摩尔定律预测大规模集成电路中的晶体管数量大约每两年翻一番。这就引发了一个令人担忧的事实:晶体管小型化总是有极限的,大规模集成电路中的晶体管数量何时到头?

2014年大规模集成电路中的晶体管拥有的晶体管尺寸为14纳米,到2017年缩小为10纳米。这些晶体管被组合以构成逻辑门,例如“与”门或“或”门。多个逻辑门组合在一起,方可完成相对更复杂的计算,组合逻辑门通常基于非常复杂的运算模块,从而允许经典计算机进行算术运算。在这种情况下,摩尔定律的推定假定晶体管尺寸的缩小没有限制,从而可以不断满足晶体管的缩小和提高效率的需求,但科学生产力的发展却决定了晶体管这种基于硅的结构总是存在物理上的极限。如果晶体管达到约一个纳米,那么晶体管就缩小得接近原子尺寸,由于小到仅有数个原子的大小,电子有时会无视其中阻碍而直接通过一个已关闭的晶体管开关,这种神奇的超自然现象被称为:量子隧道效应。也就是说,当我们的晶体管发展到接近原子尺寸大小的时候,就已经达到了硅结构的物理极限。而达到物理极限的硅晶体管所构造的逻辑门中针对电路的通断将会失去物理效果。比如在此情况下,由于相互之间的距离实在太近,电路中的电子会通过一种量子效应的方式建立一种“电子穿越隧道”,直接进行物理隔离的隔空“传送”而无需电路的开关通断。这意味着晶体管不再能够阻止电子通过,换句话说,这种情况下的电路总是“接通”电子的。经典计算机无法处理与量子物理学相关的这些问题,这就是量子计算机研究的起点。

三、量子计算机和物理实现示例介绍


量子计算机的研究之所以开始,是因为量子计算机可以处理与经经典的基于硅的计算机不同的量子问题。量子计算机依靠量子比特来进行计算,这并不等同于经典计算机中的位,但是两者都是其各自系统的最小计算形式,并且由两种状态0或1表示。量子世界是一种平行的世界,一个量子粒子能够同时穿过两个狭缝。所以量子计算机能够进行高度并行的量子计算,远比经典计算机有效。打个比方说,一个1公斤的铁球,从3米高的地方丢下来,多久接触地面?经典计算机的算法,就是用公式用算法计算,而量子计算就是搞个铁球,实际丢几次,测量结果。量子算法利用了量子的物理特性,可以让叠加态的量子高概率的塌陷到我们想要的结果上,换句话说,量子计算机并非是去计算结果,而是按我们的要求去观测,直接看到结果。

量子计算机之所以可以直接去观测,主要是基于量子的特性叠加态。量子比特的优点是它们不仅限于0或1,而且可以一次处于两种状态的任何比例,这种概念称为叠加态。简而言之,量子比特可同时处于多种态,它可以是几种不同量子态当中的任意几种归一化线性组合,这种状态即我们常说的:量子叠加态。量子叠加态是在给定的位置和时间,由两个或多个刺激引起的净响应的每个刺激单独发生时的响应之和。量子叠加表示加权的“平均值”,其中权重是复数。叠加的实际用途是对概率的编码,该概率将被测量为处于量子比特的基本状态之一。举个例子,假设有状态A,状态B。量子叠加态就是AB的叠加,用二进制的说法就是同时表示0和1。于是,如果有5个量子他们都处于叠加态,那么就包含了00000~11111 (二进制)所有数字的叠加,我们想要的答案就在里面。而我们使用的量子算法,类似于一种实验过程,让他们发挥物理特性,按我们设计的算法退出叠加态,退出叠加态的量子,有些退成了A,有些成B。我们最后测量到的ABBAA (01100)就是计算结果。

那么我们怎么去设计算法让量子的叠加态按照我们的需要退出到特定的状态呢?就像薛定谔的猫的故事一样,一旦我们去观察/测试了量子比特的值,它就必须确定一种状态,即它就会变为水平或垂直极化状态中的一种。也就是说,只要不被探测观察到,量子比特就处于叠加态(同时等于0和1)而无法预测其值。有一种通过纠缠的变通方法,其中可以通过仅测量一个纠缠的量子比特来推论量子比特的属性,这种方法被称为量子干扰。纠缠是当一个量子比特将立即响应另一个量子比特状态时双方的相互关联。用更正式的术语来说,量子纠缠是量子比特之间的相关性,无论它们之间有多远,一个量子比特发生变化会立刻反应在另一个相关的量子比特上。因此量子纠缠是量子系统在测量每个量子比特时产生相同物理结果的特殊能力。该特性意味着每个量子比特的量子状态不能彼此独立地描述,而是相互连接的。而我们实现量子算法最重要的就是实现对量子纠缠的操作。

量子计算机的量子比特操作就像经典计算中的逻辑门一样,但比经典计算机要复杂得多。和经典计算机一样,量子计算机针对量子比特操作也设置了相应的量子门。经典计算机使用逻辑门实现对电路电子状态的操作,即由一组输入即可得到一个确定的输出状态。而量子计算机使用量子门,用于操纵处于叠加态的量子比特,改变它被观测时可能出现的状态,并最终输出一个叠加态和确定的状态量子。量子门接受叠加的输入,旋转概率,并产生另一个叠加作为其输出。量子门可以执行经典逻辑门所执行的所有操作,而且具有可逆性。并且,和经典计算机一样,量子门可以执行相同的操作,也通过一组不同的量子门来组合执行这些操作。在经典计算机中,这些逻辑门包括“与”门或“或”门等;在量子计算机中,这些门包括“NOT”、“Pauli-Z”、“Hadamard”和“CNOT”等。这些门现阶段来看,主要是对应经典计算机中的模块的量子逻辑电路,一个新事物的出现,最初的阶段最好的实现方式的就是模仿成熟的体系和运算模式,并在其中不断探索实验,最终形成适合自己的体系和运算模式。

量子叠加允许同时处理多个可观察状态,从而从一开始就实现并行计算。在经典计算机中,并行计算的需要面临的最大挑战之一,量子计算机天生就具备并行计算的特性和优势。此外,量子逻辑门很容易超越经典计算机的逻辑门。基于这些优势,量子计算机可以比传统的确定性计算机以更少的指数级时间解决问题,并且比传统的随机计算机(即包含硬件随机数生成器)花费的时间更少。详细来说,量子计算机使用量子电路的量子测量结果来比拟解决上述问题。也就是在量子纠缠中引入量子干扰,量子干扰将实现以更少的量子状态的变化来实现测量结果的输出。简单来说,就是通过量子干扰来选择实现我们想让量子叠加转化的状态,然后基于这个量子比特的状态去干扰变化另外一个量子比特的状态,然后这两个状态相互干扰并产生可以表示为函数的全局属性的值。量子电路的量子测量结果只需量子计算机在计算的时候,根据我们的需要去干扰几个特定的量子比特即可实现量子测量的结果,也就是说量子计算机仅通过测量第一个量子比特,就可以通过一次评估来确定两者之间的干扰属性,而经典计算机的运算是那么的流程化,因此这就是量子计算机在这方面能够比经典计算机优秀的地方。而需要达到随心所欲的操作量子比特的纠缠干扰,就需要学士界不断的研究和实践探索了。随心所欲的程度愈高,量子计算就越快。

最后,量子计算机创建量子比特,应用量子门纠缠这些量子比特并操纵概率,最后测量结果并将叠加折叠为实际的0和1序列。到达0和1序列后,量子计算机就需要使用0和1序列表达与硬件进行交互,从而完成量子计算机真正意义上的形式化,也就是工程机和物理实体。而这个实体物理构造也区别与经典计算机的硬件架构。如图所示,量子计算机的物理实体在硬件和量子物理层之间执行量子测量,即实现对量子比特的观察。这个和量子纠缠干扰一样,需要众多顶尖科学家前赴后继地研究这项前沿技术的实现。下图显示了论文《Engineering thequantum-classical interface of solid-state qubits--David J Reilly1 2015》提出了一种可能的量子计算机硬件实现。

图 量子计算机的量子经典界面的一种可能配置

在图中,该硬件架构是该论文提出的一种量子经典界面的一种可能配置,用于控制和读出量子技术。该硬件架构利用经典电路(如数模转换器(DAC),基态和激发态之间的能量分配,设置自旋磁化过程的(Lamor)频率,周期性地积累相位)将信息在量子物理层的量子比特之间来回传递。利用(交流任意波形发生器(AWG)、模数转换器(ADC)、专用集成电路(ASIC)或可编程门阵列(FPGA))的应用实现读出和控制之间的高速逻辑和反馈。最后量子算法在通用处理器上编译并下载到量子经典接口上执行。

图 经典量子界面的实物例子

经典量子界面的实物例子元素。a展示了模块化低温电路板互连,设计用于将大量读出和控制通道与放大的自旋量子比特器件接口。b显示了一张低温平台的照片,用于在读出和控制之间实现快速反馈。该系统集成了一个高速数字-模拟转换器、ADC和一个商用的可编程门阵列(FPGA),可在低温下工作。

IBM具有五个和16个量子位的量子经验已经可以在云中公开访问。提供三个“标准”软件界面。准备使用20量子位的客户端系统和下一代IBM Q系统正在开发中,该系统具有首个工作的50量子位处理器。IBM的量子设备基于超导约瑟夫逊结技术构建,该技术需要低温,如图所示。量子比特是非谐LC谐振器,称为跨门量子比特,其中非线性电感器(L)由约瑟夫森实现。外部设备显示了五个方形量子位(a)。弯曲连接(b)是共面波导(CPW)。它们用于将量子位彼此耦合以进行信息处理,并将量子位耦合到I/O端口(c)以操纵,写入和读取量子比特。所有的量子比特操作和读出过程均由4至8 GHz范围内的微波脉冲控制。

图 IBM量子计算设备

用于50量子比特量子计算设备的开放式低温系统。该设备隐藏在底部中央的屏蔽管内。屏蔽管左右两侧的铜结构包含参数量子放大器,用于从量子位中读取信息。

在应用方面,国内的阿里巴巴、国外的AWS、IBM和Rigetti分别推出了量子比特系统的通用型云量子计算机,大量全球初创企业也正在投资硬件开发。2018年,IBM开源了QASM(Quantum ASseMbler)。Google与Rigetti合作开源OpenFermion。而微软则推出了Q#(Q-sharp)量子计算编程语言等等。

水平和理解有限,若想更加直观理解的介绍内容和科普知识,可移步@李永乐老师发的科普讲解视频【优酷和youtube均有】。

文献参考引用

Engineering thequantum-classical interface of solid-state qubits--David J Reilly1 2015

Quantum Computers and Their SoftwareInterfaces

https://ercim-news.ercim.eu/en112/special/quantum-computers-and-their-software-interfaces

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-01-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 时间之外沉浮事 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
GPU 云服务器
GPU 云服务器(Cloud GPU Service,GPU)是提供 GPU 算力的弹性计算服务,具有超强的并行计算能力,作为 IaaS 层的尖兵利器,服务于生成式AI,自动驾驶,深度学习训练、科学计算、图形图像处理、视频编解码等场景。腾讯云随时提供触手可得的算力,有效缓解您的计算压力,提升业务效率与竞争力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档