首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

量子计算机极可能是场“科学闹剧”!人类第二“永动机”

近来流行这样一句名言:“只有想不到的的,没有做不到的”,这个观点也是作者原先的信念,但现在看来这句话成立还要加上一个附加条件:明显缺乏逻辑事实依据的想法除外。经过一段时间的甄别和验证,我们认为诸如超光速、时间变慢、多维空间、量子叠加态当属此列,进而进一步认为量子计算机、超人工智能也属于科学闹剧系列。作者已经谈过有关超人工智能的闹剧,下面谈谈量子计算机。

设计原理上存在根本性错误

量子计算最本质的特征为量子叠加性和量子相干性,是以处理和运算量子叠加态信号为主的计算机。量子计算基于量子比特,而非现代计算机中的经典比特,它利用量子力学理论中的量子叠加和量子纠缠效应,具有天然的“大规模并行计算”的能力。在量子计算机中,基本信息单位是量子比特,运算对象是量子比特序列。量子比特序列不但可以处于各种正交态的叠加态上,而且还可以处于纠缠态上。量子计算机对每一个叠加分量进行变换,所有这些变换同时完成,并按一定的概率幅叠加起来并给出结果,这种计算称作量子并行计算。由此可见,支撑量子计算机关键核心的就是所谓的量子叠加态及其作为运算单元的量子比特。

经典科学目前的确存在许多适应性和局限性问题,但经典科学是建立在实实在在的客观现实基础上的,正因如此,经典科学取得了巨大的成功,人类要想超越经典科学,最佳途径也只能是建立在客观现实基础上的超越,而不是仅凭主观想象等其他捷径或邪路就可以超越的。量子力学原本许多主要的基础理论也是建立客观现实基础上的,但是自从搞出了个所谓的量子叠加态,就似乎使得整个量子力学变成了一个主观随意想象的世界,而这绝非科学务实的态度!在薛定谔的那只“妖猫”的引领下,自然科学正在走向主观化和畸形化,其根源在于包括量子力学在内的现代科学理论存在巨大的局限性,使得一些自然科学家在不能用现有的认知体系解释这些问题情况下,就将强行将一些主观性问题归并的客观性问题上,这也是一些自然科学家通常的错误——把一些主观性问题当成客观问题对待的根源所在。基于此,量子计算机在出发点时就已经走在了错误的道路上,这就注定了量子计算机的最终命运。

以下是在假定认可量子叠加态理论的情况下的进一步推论。

具有明显的不确定性特征

量子计算机的信息单位是量子比特(qubit),量子比特可以表示“0”,也可以表示“1”,甚至还可以是“1”和“0”的叠加状态(superposition),即同时等于“0”和“1”,而这种状态在被观察时,会坍塌成为“0”或是“1”,也就变成了确定的值,其实也就和经典量子理论“薛定谔的猫”是一个道理。除此之外,两个量子比特还可以共享量子态,无论这两个量子比特离得多远,也就是所谓的“量子纠缠”(entanglement)。

量子比特可以制备在两个逻辑状态的叠加体,它可以同时存储“0”"1"。如果是N个量子比特,理论上可以同时存储2^ N的数据。比如250个量子比特可存储的数据就是2^ 250,这个数字比已知宇宙所有原子加起来还要多。量子计算机在进行运算时,可以同时计算2^ N的数学运算,相当于经典计算机要重复2^ N的计算,由此可见,量子计算机可以节约大量的时间和计算单元。50量子比特的运算速度(2的50次方=1125亿亿次)将秒杀最强超级计算机(目前世界最强的超级计算机是神威·太湖之光,运算速度是每秒9.3亿亿次)。

理论和表面上看,量子计算机的确很厉害,具有远胜于经典计算机的机能,但其巨大的隐患也正在于此。我们知道,经典计算机的显著特点应该是建立在准确无误基础上的高速运算,前提首先是准确无误,但是量子计算机却根本无法做到这一点,因为所谓的量子比特就是一种具有完全不确定性的叠加态比特。在“量子世界”中,客体的物理量则是不确定的、概率性的,而且这种不确定性与实验技术无关,是量子世界的本质特征,无法消除。而量子计算机虽然也可以使用 0和 1,但一个量子比特可以同时是 0 和 1,具有不确定性。

量子计算机的输入态和输出态为一般的叠加态,其相互之间通常不正交,其变换为所有可能的幺正变换。比如,一个具有10量子比特运算能力的量子计算机,我们可以同时输入似于“|0110110100>+ |1001001011>”的叠加态,但由于每个量子比特都存在叠加的不确定,就会使输出态存在2^10的运算结果,即存在2^10个不确定性结果。结论:有多快的运算速度,就有多大的不确定性。

不确定性是量子计算机的典型特征,但一个具有极大不确定计算机是基本上没有应用价值的,或许最多只可作为概率机用于游戏而已。

无解的错误率

无论是量子并行计算还是量子模拟计算,量子计算机本质上都是利用了量子叠加态和量子相干性,这本来就已经决定了其不确定性的典型特征。在量子计算机中,量子比特不是一个孤立的系统,它会与外部环境发生相互作用,导致量子相干性的衰减,即消相干。另外,由于量子本身受到周边其他粒子的影响,将会导致更多的错误结果,这需要使其被置入不受干扰的完美环境中。退一步说,即便将量子计算机进行完美隔离(比如超低温),由于计算机的量子回路内本身存在随机波动,产生的结果仍然不是每个都正确。因此,要使量子计算成为现实,,需要在加入量子纠错技术,其核心问题就是克服消相干,而量子编码是迄今发现的克服消相干最有效的方法。

目前主要的几种量子编码方案是量子纠错码、量子避错码和量子防错码,但仍然存在效率不高的缺陷。主流的量子纠错技术需要引入更多的纠错量子,来耦合一个计算量子在某个时间的状态。然而,这种纠错反而占用了更多——甚至是几乎所有的计算量。想要将错误率降低到可接受的水平,一个实际性能只有 3-qubit 的量子计算机可能需要上百个量子比特。在这样的前提下实现 50-qubit 的所谓量子优势,将使其变得非常臃肿,也变得非常不经济。早在 2002 年,《电子工程专辑》的一篇文章就指出,错误率 (error rate) 是量子计算实现的绊脚石。

2017年11月12日,IBM宣布成功研发出20量子位的量子计算机,并成功建成并测试全球首台50个量子比特的量子计算原型机。而近期的美国物理学会上,Goggle实验室的公布了最新一代量子处理器Bristlecone—— 72位量子位处理器,错误率只有1%。目前来看,在错误率上,谷歌在72位量子计算机上已经实现了这个目标,单量子比特门为0.1%,双量子比特门为0.6%。

谷歌的成就似乎使我们看到了进展,但由于存在量子叠加性和量子相干性的本质性特点,在加上其对环境和设备的苛刻要求,可以肯定:所谓的量子计算机只能会逐渐缩小错误率,但却完全无法像经典计算机那样从根本上消除错误率,量子计算机对错误率是完全无解的,这也是其根本特征之一。但我们知道,在高速运算的情况下,计算机本质是不能容许有任何错误的,任何一个计算失误都有可能被巨量放大,将会导致“失之毫厘谬以千里”的结果,更何况如此高的错误率。在错误率不能根本彻底消除的情况下,无论多么高速的计算机,都是没有现实意义和实用价值的。

现实条件严重不足

理论上的量子计算之所以能达到如此神速,就是因为量子比特的叠加状态和量子纠缠,但与此同时,量子叠加和纠缠状态是极度脆弱的,不能受到一丁点干扰,量子计算机必须在极度低温条件下工作。建造量子计算其中一个困难就是,由于自身条件的限制,量子比特必须保存在温度极低的环境中,约零下273摄氏度。量子处理器(QPU)需要在绝对零度(-273.15℃)附近的温度才能运行——屏蔽磁场、隔离震动和外部因素的干扰都需要绝对零度的低温环境,还要将量子计算机放到比地球磁场弱50000倍(基本相当于没有磁场)、大气压比地球小100亿倍(基本相当于真空)的环境中,以保持量子状态的稳定。这些都是通过闭式循环冰箱实现的,目前,谷歌位于加州圣巴巴拉实验室里的量子芯片,就被冻结在悬空低温恒温器里。

量子比特在其位置上保存的时间也非常短暂,因此量子计算意味着处理非常不稳定和脆弱的信息。不仅如此,量子位错综复杂、变幻无常、体积微小、极难控制,及时能做到,任何的噪音、热度和震动也会让研发者前功尽弃。量子比特分为物理比特和逻辑比特,对数个物理比特进行编码后,才能得到1个逻辑比特。由于国际上没有一家机构能实现一位逻辑比特的编码,而实现不了编码就不可能实现通用量子计算。因此,目前的量子计算机只能做一些特定的任务,使用分为非常狭窄。就以IBM本次研发出的20量子比特量子计算机来说,它就只能解决一些特定的问题。其实,不仅IBM的量子计算机,中国的量子计算机同样只能解决少数特定问题。中国科学技术大学等单位联合研制的光量子计算机基于线性光学,把量子点当做单光子源来使用,而且可以实现光子纠缠操纵,但就用途来说,这台光量子计算原型机只能用来做玻色取样,而无法像经典计算机那样实现通用计算。

迄今为止,世界上还没有真正意义上的量子计算机,量子计算机仅仅具备假设意义。目前,用原子实现的量子计算机只有5个q-bit,放在一个试管中而且配备有庞大的外围设备,只能做1+1=2的简单运算,正如Bennett教授所说,“现在的量子计算机只是一个玩具,真正做到有实用价值的也许是5年,10年,甚至是50年以后”。目前世界各地的许多实验室正在以巨大的热情追寻着这个梦想,已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等,但由于在实验上实现对微观量子态的操纵确实太困难了,还很难说哪一种方案更有前景,就算这些问题都可以得到解决,量子计算机对于处理日常任务也并没有什么用处。

综上所述,量子计算机甚至是个连概念都不成熟的计算机,根本原因在于其作为支撑理论的量子叠加理论含有太多的主观想象成分,严重缺乏现实基础,具有明显的既不能证实也不能证伪的短板,正因如此,量子计算机破绽百出,才出现了上述众多短板。事实上,自从理查德·费曼1982年提出量子计算机概念后,人类在这个方面的研究已经近40年,在当代技术发展高速进展的情况下,量子计算机进展如此缓慢和被动,这其实已经说明了这个理念存在很大问题了。

量子计算机极有可能又是一起科学闹剧!鉴于目前的形势,建议国家及相关部门要先从基本的理论基础做起,首先从理论上展开对“量子叠加”的的论证及量子力学的完善工作,而没必要急于在量子计算机的研制上浪费时间和资源了!

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180310B0LDVR00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券