量子计算机研发20年,刚进入它的“电子管时代”

什么是量子计算机

量子计算机(quantum computer)是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机的概念源于对可逆计算机的研究。研究可逆计算机的目的是为了解决计算机中的能耗问题。

虽然无数次听过量子计算机的大名,但就像所有带“量子”两字的概念,人们大多不甚了然。

量子计算机的概念1980年代提出,投入研发20年,迄今还没有一台真正走出实验室。但传说它(将来会)很厉害。谷歌、IBM、阿里巴巴和许多初创公司在竞争,想第一个实现“量子霸权”,也就是让量子计算机在一个计算任务中快过传统计算机。

粗浅了解一点量子计算机的原理后,你会发现其实它和我们熟知的电脑差不了多少。

量子计算机:量子版的计算机

“别把量子计算机想成全新的系统,它就是经典计算机的扩展版,处处模仿经典计算机。”安徽问天量子科技股份有限公司首席科学家、中国科学技术大学中科院量子信息重点实验室韩正甫教授说,经典计算机以电压高低代表数字1或0,即为一比特(bit)。

而量子计算机里对应的是量子比特(Q-bit),那可能是自旋箭头向上或向下的一个电子,也可能是“立直振动”或“躺平振动”的光波……

传统计算电路由各种“逻辑门”组成,对应的就是量子计算机的各种“量子逻辑门”。都是根据一定的规则,变化存储位的0和1。

韩正甫说:“传统计算机是这么玩的:一排存储位写进去一个初值(比如10011001)。接下来若干步操作,每一步存储器里边的数都变换成另外一组数。走完程序停下来,把里面的数读出来,比如00101010,就是计算结果。”量子计算机同样如此。

量子计算机不同之处,是丘比特(Q-bit)特别灵活,没bit那么死板。它同时是0和1。比如:它是六成的0和四成的1。这让它有了超能力。学过一点量子力学才能理解Q-bit的奥妙。

模糊又精确的Q-bit

什么叫“它是六成的0和四成的1”呢?

补习一下高中物理:20世纪初的实验发现,物质细小到极限,就无法被准确测量。因为测量意味着干涉,哪怕你只看一眼。当对象微小到了量子级别,它的状态会被观测彻底破坏。(顺便一说,“一触即溃”的效应被用于量子通信。用量子来承载密码,可以做到有人窃听这个密码信号,一定会被发觉。)这就叫“测不准原理”。东西越小,就越显得模糊。你去测量一个电子的位置,这次测出来在北京,下次测出来在天津。我们只能说一个量子“大概率在北京”,“大概率自旋箭头冲上”,“大概率平躺着振动”……

这些概率,是可以多次测量确定的,虽然单次测量的读数不一定。

所以量子比特是模糊的也是精确的:同一个数时而读出0,时而读出1;但多次去读,出现0的概率会趋于一个定值,比如说60%。

为什么量子计算更快?

“在传统计算机里,一个高电压叠加另一个高电压,仍然是一个高电压;量子比特的叠加则不同。”韩正甫说。

量子比特存储的是一个矢量,就好像一个时钟,时针对应着概率。

时针可以指向零点(量子比特读数100%是0),或指向三点(读数100%是1)。或指向一点半(50%是0,50%是1),或指向任意一个角度。

传统计算机存储的是“10011001”。

量子计算机存储的是“钟钟钟钟钟钟钟钟”。(请自行想象酒店大堂挂的一排钟表)

传统计算中,1和0叠加为1,再叠加一个1,得到0。

量子计算中,“三点”和“零点”叠加为“一点半”,再叠加“三点”,得到的是“两点一刻”。

比起bit,Q-bit更有表现力。一个Q-bit可蕴含无限复杂的数字。在这个意义上“以一抵多”。一个Q-bit投入变换,等于多位数字一起变换,即所谓“并行计算”。

并行计算潜力发挥到极限的情况下,量子计算机的算力比起传统计算机,是2^n∶1。

但要强调的是: 量子计算机的结果来自概率统计。量子计算机与传统不同,它要一次次重复程序,一次次地读数(每次结果都不一样)。周而复始,足够多次(让概率的可信度超过99.99999%)后,统计出各量子位为1和0的比例,那才是需要的数字。所以碰上不太复杂的计算任务,量子计算可能比经典计算机更慢。

工作原理

普通的数字计算机在0和1的二进制系统上运行,称为“比特”(bit)。但量子计算机要远远更为强大。它们可以在量子比特(qubit)上运算,可以计算0和1之间的数值。假想一个放置在磁场中的原子,它像陀螺一样旋转,于是它的旋转轴可以不是向上指就是向下指。常识告诉我们:原子的旋转可能向上也可能向下,但不可能同时都进行。但在量子的奇异世界中,原子被描述为两种状态的总和,一个向上转的原子和一个向下转的原子的总和。在量子的奇妙世界中,每一种物体都被使用所有不可思议状态的总和来描述。

彩虹与斑马

有量子计算机之前,数学家就在畅想利用量子比特的“丰富内涵”大大缩减计算时间。不过迄今数学家只证明在两种场景中,量子计算大大快于传统计算机。

首先是破解RSA算法。RSA是现在最常用的加密方法,其机理是利用因数分解的困难——把两个大质数相乘很简单,而把乘积拆成两个质数,计算机可能得算几万年。

所以银行可以公开发送一个几千位的数字,并掌握它的两个质因数,而不担心有人算出这两个质因数——用于制造私有的数字钥匙。

但二十多年前Peter Shor证明一种基于量子计算机的算法,可以轻松分解因数,这也让学界研发量子计算机的兴趣大增。

另一种可能的应用是“搜寻未排序的大数据库”,或者叫“大海捞针”。传统计算机只能一个一个比对目标,而量子计算机则可以并行计算。传统计算机用时是T的话,量子计算机用时是“根号T”。前者要花费1百万小时的任务,后者一千小时就能解决。

除了以上两类计算,量子计算机还被寄希望于未来在化学、制药等领域大发神威。理由是:不同于传统计算机,量子计算机是真正的模拟计算机,可以重现真实的自然(物理学家费曼第一个指出这点)。

传统比特的0和1相当于黑白两色,量子比特的“可以指向任何角度的时针”就相当于全彩色谱,可显示出任何一种颜色。

如果说传统的存储器是斑马,量子存储器里就是彩虹。世界是多彩的,用彩虹去描绘世界,当然更直接,更便捷。

才刚起步

量子很脆弱,动不动就会崩溃。

“要将信息编码在一个非常微小的东西上去,比如一个电子,或一个原子核,都首先要把它孤立开来,让它跟周边不作用。这种细微的控制是很难的。”韩正甫说。

各种量子载体都伴随着独特的困难,比如光子时刻前进,电磁场又左右不了它,操控起来很麻烦。目前研究者大概在实验几十种载体:电子、光子、陷阱里的离子……

韩正甫说:“隶属中科大的中科院量子信息重点实验室,现在正副教授就有50多人,在读的博士生有150人,博士后近30位,一个团队里有很多不同的组,研究的事情虽然互相可以理解,但术业有专攻,比如‘做硅’的就会去研究曝光、清洗等等半导体行业关心的工艺;‘做光’的研究激光发生器、振荡器、光纤之类。”

“国内从1980年代初开始量子光学研究。现在多了不少人,但还是个冷门。专业人才稀缺。”韩正甫说,“其实全世界人才都不够。所以谷歌花了几亿美元从加州大学圣芭芭拉分校挖了一个团队过来,主要研究超导量子计算机。”

目前各大公司和研究机构仍在提升量子比特量——争取几十个量子同时稳定,别太快塌陷。超导机器为了让环境接近绝对零度,成本高达成百上千万美元。工程实验机在进步,但几时走到实用还不知道。

回顾1946年第一台计算机ENIAC,用了18000个电子管,那是一种抽成真空电子飞行其中的玻璃管。ENIAC重30吨,每秒钟仅计算5000次。没有十多年后的半导体革命,就谈不上今天的电脑和手机。

应该说,量子计算机刚进入它的“电子管时代”。

量子纠缠

在量子力学里,当几个粒子在彼此相互作用后,由于各个粒子所拥有的特性已综合成为整体性质,无法单独描述各个粒子的性质,只能描述整体系统的性质,则称这现象为量子缠结或量子纠缠(quantum entanglement)。量子纠缠是一种纯粹发生于量子系统的现象;在经典力学里,找不到类似的现象。

2017年6月16日,量子科学实验卫星墨子号首先成功实现,两个量子纠缠光子被分发到相距超过1200公里的距离后,仍可继续保持其量子纠缠的状态。

2018年4月25日,芬兰阿尔托大学教授麦卡﹒习岚帕(Mika Sillanpää)领导的实验团队成功地量子纠缠了两个独自震动的鼓膜。每个鼓膜的宽度只有15微米,约为头发的宽度,是由10个金属铝原子制成。通过超导微波电路,在接近绝对温度(-273K)下,两个鼓膜持续进行了约30分钟的互动。这实验演示出巨观的量子纠缠。

陛下...看完奏折,点个赞再走吧!

原文发布于微信公众号 - 互扯程序(chat_routine)

原文发表时间:2018-10-11

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏腾讯开源的专栏

道器相融,由 Angel 谈一个优秀机器学习平台的自我修养(下)

随着人工智能时代来临,大数据平台发生了新的变化,也提出了更高的要求。Spark等大数据平台多是为通用数据处理而设计的,并非专用于机器学习任务,企业该如何更好地利...

7821
来自专栏数据科学与人工智能

【数据科学】什么是数据科学家与数据科学

仅仅在几年前,数据科学家还不是一个正式确定的职业,然而一眨眼的工夫,这个职业就已经被誉为“今后十年IT行业最重要的人才”了。 一、数据科学家的起源 “数据科学”...

2766
来自专栏ThoughtWorks

当北京程序员遇上首席科学家

#老马之夜#北京站圆满结束,雷小达和你分享那些精彩瞬间。 马丁·福勒(Martin Fowler): 1963年生于英格兰沃尔索耳,是一个软件开发方面的著作者和...

3434
来自专栏怀英的自我修炼

元学习-02

本篇与上一篇一样,是XD的元认知课程的学习笔记。本篇将从技能的分类谈到面对不同的分类的时候该如何自学,接着再通过这一套自学小套路返回去推导出比技能分类更深一层的...

3539
来自专栏数据科学与人工智能

【数据科学家】如何成为一名数据科学家?

一、数据科学家的起源 “数据科学”(DataScience)起初叫”datalogy “。最初在1966年由Peter Naur提出,用来代替”计算机科学”(丹...

2476
来自专栏大数据文摘

物理学家看人工智能:懂了你就不怕了

59814
来自专栏PPV课数据科学社区

给外行能看懂的科普:这就叫自然语言处理

前几年曾经马少平老师的引荐,为某科普图书写过一篇短文介绍自然语言处理。如果只是介绍NLP的概念、任务和挑战,应该可以参考这篇小文。原文如下,仅供参考。 自然语言...

3456
来自专栏斑斓

运用跨界思想体悟软件设计

设计或者是一种解谜,世界就在眼前,然而它却是未知的,神秘的,我们试图通过分析建立一个普适的模型,去解构这个已经存在的世界。这个谜题如此引人入胜,它没有标准答案,...

3829
来自专栏PPV课数据科学社区

【学习】如何修炼成大数据高手?推荐你看这些书

首先声明一点,千万不要以为看了这篇文章就能成为大数据高手了,不然就不会用“修炼”这个词了,要修炼成大数据高手决不是件容易的事,可以说是非常 难的一...

2864
来自专栏大数据挖掘DT机器学习

【白硕 博士】自然语言处理与人工智能(13页PPT图文详解版)

【白硕】博士,研究员,中国中文信息学会常务理事,信息检索与内容安全专业委员会主任委员,中国科学院计算所、信工所和中国科学院大学兼职博士生导师,上海证券通信有限责...

4925

扫码关注云+社区

领取腾讯云代金券