潘建伟团队光量子计算机TDA新算法横空出世,人工智能量子计算破局

来源:ArXiv;quantamagazine

编译:文强 米乐

【新智元导读】日前,潘建伟团队完成了首个在光量子计算机上进行拓扑数据分析(TDA)算法的验证演示,表明数据分析可能是未来量子计算的一大重要应用。量子计算已经成为国之重器,IBM、谷歌、微软等公司都有布局。但量子计算的基础物理问题还远远没有解决,如:降低错误率、适应错误率以及扩大规模,因此很难从实施中解脱出来。

在过去的几十年中,拓扑学得到了长足的发展,已经成为分析现实世界的强大工具。简单说,拓扑学(Topology)研究的是几何图形或空间在连续改变形状(比如拉伸或弯曲,但不包括撕裂或粘合)后,仍然保持不变的性质。

在拓扑世界中,对称性尤为重要。一般我们说的“对称”是旋转对称,比如将一个正方形旋转90°以后仍然保持不变。但是,还有另外一类对称,数学家把这些对称称为“持续同调对称”(symmetries persistent homologies),研究这些对称性是网络分析、数据挖掘和理解大脑神经网络连接图等问题的关键

持续同调(PH)能让我们在不降维的情况下,寻找刻画数据全貌的方法。假设有一个100 x 900的数组,列(100)是各种参数,行(900)是独立的数据点,以Excel表格形式储存。在三维空间中,我们无法描述数据的全貌,而通过降维的方法表示数据,或多或少都会损失一些有潜在价值的信息。因为拓扑学在数学空间性质的研究中主要关注的是点与点之间的关系,忽略点与线的关系(比如距离和角度)。因此,PH能让我们以可靠的、不掺杂任何数据挖掘和加工扭曲的方式,提出关于数据的拓扑性问题。

持续同调的输出一般是“条形码”图,看起来这样(最下方):

从理论上讲,这些对称性可以通过计算数据结构中的空洞和空洞的数量来表征。由此得到的数字被称为“贝蒂数”(Betti number),具有相同贝蒂数的结构在拓扑学上是等价的。

但是,有一个问题。计算贝蒂数需要大量的计算力,即使只是小数据集的贝蒂数,对传统计算机而言消耗也十分大。正因如此,数学家在利用贝蒂数来研究现实世界问题方面成功十分有限。

不过,这个问题可能会随着一项新研究的实现得到解决。日前,由潘建伟、陆朝阳带领的中国科学技术大学、中国科学院-阿里巴巴量子计算实验室等机构组成的团队,完成了首个在小规模光量子处理器上进行拓扑数据分析(TDA)的概念验证演示

研究人员表示,其实验成功展示了量子TDA算法的可行性,并且表明数据分析可能是未来量子计算的一大重要应用

论文的第一作者是He-Liang Huang,这项验证演示以MIT的Seth Lloyd及其同事的工作为基础,Lloyd等人在2016年开发了一种量子算法,叫做拓扑数据分析(TDA),可以大大加快贝蒂数的计算速度。TDA量子算法按照n的5次方扩展,比已知的最快的经典算法速度快了好几个数量级。但是,这个研究完全是理论上的。

现在,Huang等人所做的工作是在原理验证实验中,在量子计算机上运行TDA算法。团队使用六光子量子处理器,分析了三个数据点在两个不同尺度的网络中的贝蒂数的拓扑特征。结果完全如预期。实验装置如下图:

这为分析复杂数据集提供了一种全新的方法。Huang和他的同事说:“这一领域的未来发展将为量子计算的数据分析开辟新的领域,包括信号和图像分析,天文学,网络和社交媒体分析,行为动力学,生物物理学,肿瘤学和神经科学。”

三足鼎立,IBM、Google、微软在量子霸权、有效操作上火力全开

经过几十年的沉寂,量子计算突然大热,兴奋而活跃。

大约两年前,IBM提供了一种量子计算机:称之为5量子比特(qubit)的IBM Q。这看起来更像是一个研究人员的玩具,而不是一个完成任何严肃的数字计算的方法,但全球已有70,000个用户注册。

现在谈论即将到来的“量子优势”:量子计算机可以超越当今最好的传统超级计算机的手段执行任务。量子计算的全部重点在于量子位,而不是经典位。长期以来,五十个量子位被认为是量子计算能够进行计算的近似数量,而这个量子计算将经历一个非常长的时间。

在过去的几个月里,IBM宣布他们突破49个量子比特模拟大关,而谷歌则一直被期待有里程碑式的突破。柏林自由大学的物理学家埃斯特(Jens Eisert)说:“社区有很大的能量,最近的进展是巨大的。

IBM将量子计算机放在大型低温容器(最右边)中,这些容器被冷却到绝对零度以上。

1月底,据外媒报道,谷歌和微软即将公布量子计算技术里程碑式的突破。2017年4月,谷歌公布其实现“量子霸权”的路线图,声称将利用49量子比特的模拟系统攻克传统计算机无法解出的难题,并将于近期披露相关论文。微软将其研发重点放在了“有效操纵”上,也将在近期公布重磅突破。

由此可见,原则上解决了基本问题,普适量子计算的未来之路现在只是一个工程问题,但量子计算的基础物理问题还远远没有解决,也很难从实施中解脱出来。

即使我们即将通过量子计算至上的里程碑,未来一两年可能是量子计算机是否会彻底改变计算的真正关键时刻。还有一切可以发挥,不能保证达到大的目标。

三大问题亟待解决之一:降低错误率

量子计算的好处和挑战在物理学中是固有的,传统的计算机将信息编码和处理为二进制数字串(1或0)。量子位的作用是一样的,除了它们可以放置在所谓的状态1和0的叠加之中,这意味着量子位状态的测量可以用一些明确的概率引出答案1或0。

为了用许多这样的量子位进行计算,它们必须全都维持在相互依赖的状态叠加——量子相干状态,其中量子位据说是纠缠的。这样,对一个量子位的调整可能会影响所有其他量子。

这意味着对于量子比特的计算操作比对传统比特的计算操作更多。计算资源与传统器件的比特数成正比地增加,但是额外的量子比特可能使量子计算机的资源翻倍。这就是为什么一个5-qubit和一个50-qubit机器之间的差别非常显着。

量子计算如此强大,很难具体说明量子力学的含义。量子理论的方程式肯定表明它将起作用:至少对于一些类别的计算,例如分解或数据库搜索,计算有很大的提速。但究竟是如何呢?

也许描述量子计算最安全的方法是说,量子力学以某种方式为传统器件提供的计算创造了“资源”。

正如加拿大滑铁卢边界研究所的量子理论家丹尼尔·戈特斯曼(Daniel Gottesman)所说:“如果你有足够的量子力学,从某种意义上说,你有加速,如果没有,你就不加速。

为了进行量子计算,你需要保持所有的量子位一致。这是非常困难的。量子相干实体系统与其周围环境的相互作用创造了一个通道,通过这个通道,相干性在一个称为退相干的过程中迅速“泄漏”出来。

寻求构建量子计算机的研究人员必须避免退相干现象,目前他们只能在几分之一秒内完成。随着量子比特数量的增加以及与环境相互作用的可能性的增加,挑战越来越大。

尽管量子计算最早是由理查德·费曼(Richard Feynman)于1982年提出的,而理论是在20世纪90年代初期研究出来的,直到现在,人们才开始研究能够真正进行有意义计算的器件。

量子计算如此困难的第二个根本原因,就像其他大自然的过程一样,它是嘈杂的。量子比特中的热量,或从根本上的量子力学过程出发的随机波动,偶尔会使量子比特的状态翻转或随机化,从而可能使计算失败。这在传统计算中也是一个危险,但是处理起来并不难,你只需要保留每一位的两个或多个备份副本,以便随机翻转的位表现为奇数位。

在量子计算机上工作的研究人员已经制定了如何处理噪声的策略。但是这些策略给计算开销带来了巨大的负担,所有的计算能力都用来纠正错误,而不是运行算法。

马里兰大学量子信息和计算机科学联合中心的联合负责人Andrew Childs表示:“目前的错误率明显限制了可以执行的计算长度。

量子计算的大量研究致力于纠错,这源于量子系统的另一个关键特性:只要不测量量子比特的价值,叠加就只能维持下去。如果你做了一个测量,那么叠加就会崩溃到一个确定的值:1或0。那么如果你不知道它是什么状态,就无法确定一个量子位是否有错。

一个巧妙的方案涉及间接寻找,通过将量子比特耦合到另一个“参数”量子比特,它不参与计算,但是可以在不破坏主量子本身的状态的情况下被探测。虽然实施起来很复杂。这样的解决方案意味着,要构建一个真正的“逻辑量子位”,在其上可以执行纠错计算,需要许多物理量子位。

哈佛大学的量子理论家AlánAspuru-Guzik估计,如今,大约有10,000个物理量子位需要做一个逻辑量子位,这是一个完全不切实际的量子数。他说,如果变得更好的话,这个数字可能会下降到几千甚至上百。

Eisert不那么悲观,说800个物理量子的量级可能已经足够了,但即便如此,他也认为“开销很重”,而现在我们需要找到应对容易出错的量子位的方法。

纠正错误的另一种方法是避免错误或取消它们的影响:所谓的错误缓解。例如,IBM的研究人员正在开发一种计算方法,用于统计计算中可能发生多少错误,然后将计算结果外推到“零噪声”限制。

一些研究人员认为,纠错的问题将会变得棘手,并且会阻止量子计算机实现为他们预测的宏伟目标。

以色列耶路撒冷希伯来大学的数学家Gil Kalai表示:“制造量子纠错码的任务比展示量子优势更困难。”他补充说,“没有纠错的设备在计算上是非常原始的,而基于原始的优势是不可能的。”换句话说,当你仍然有错误时,你永远不会比传统的计算机做得更好。

其他人则认为这个问题最终会被打破。 IBM的Thomas J. Watson研究中心的量子信息科学家Jay Gambetta说:“我们最近在IBM进行的实验已经证明了小型器件的量子纠错的基本元素,为量子位可靠存储的大规模器件铺平了道路量子信息在噪声中存在很长一段时间。”

即便如此,他也承认,“一个必须使用逻辑量子位的通用容错量子计算机还有很长的一段路要走“。他对此表示乐观:“我确信我们会看到纠错改进的实验演示,但还需要一段时间。”

三大问题亟待解决之二:适应错误率,近似量子计算

目前,量子计算机容易出错,IBM的研究人员正在讨论“近似量子计算”这一领域在短期内的表现:寻找适应噪声的方法。

这就要求可以容忍错误的算法,尽管他们得到了正确的结果。Gambetta说:“一个足够大和高保真的量子计算应该有一些优势,即使它不是完全容错的。

其中最直接的容错应用似乎对科学家而言可能比对整个世界更有价值:模拟原子级别的东西。(这实际上是费曼推动量子计算的动机。)量子力学方程式规定了一种计算分子如药物的性质(如稳定性和化学反应性)的方法。但是,如果不进行大量的简化,它们就不能被经典地解决。

相反,电子和原子的量子行为,Childs说,“与量子计算机本身的行为相当接近”,所以可以构建一个精确的计算机模型。 “包括我在内的许多社区都相信,量子化学和材料科学将是这类器件的第一个有用的应用之一,”Aspuru-Guzik说,他一直在努力推动量子计算朝着这个方向前进。

量子模拟甚至在迄今为止可用的非常小的量子计算机上证明了它们的价值。包括Aspuru-Guzik在内的一批研究人员开发了一种称为变分量子本征态(VQE)的算法,该算法即使在有噪声的量子比特的情况下也能够有效地找到分子的最低能态。

到目前为止,它只能处理很少电子的小分子,这些经典的计算机已经可以精确模拟了。但是Gambetta和同事去年9月在IBM使用一个6-qubit装置来计算包括氢化锂和氢化铍在内的分子的电子结构时,能力正在变得越来越好。据瑞士苏黎世联邦理工学院的物理化学家Markus Reiher介绍,这项工作是“量子体系的重大飞跃”。 Gambetta说:“使用VQE模拟小分子是近期启发式算法可行性的一个很好的例子。

但即使在这个应用中,Aspuru-Guzik也承认,当错误纠正的量子计算开始成为现实时,我会非常兴奋。

“如果我们有超过200个逻辑量子位,我们可以在量子化学方面超越标准方法,”Reiher补充道。 “如果我们有大约5000个这样的量子位,那么量子计算机就会在这个领域发生变革。”

三大问题亟待解决之三:扩大规模

量子计算机在几乎一年多的时间里从5个增长到50个的快速增长已经带来了希望,但是我们不应该太在意这些数字,因为他们只讲述了一部分故事。重要的是算法效率如何。

任何量子计算必须在退相干启动和扰乱量子位之前完成。通常,目前组装的量子比特组具有几微秒的退相干时间。在短暂的瞬间你可以执行的逻辑运算的数量取决于量子的切换速度,如果这个时间太慢,那么你可以使用多少量子比特并不重要。计算所需的操作数量被称为深度:低深度(浅层)算法比高深度算法更可行,但问题是它们是否可用于执行有用的计算。

更重要的是,并非所有的量子都是同样的嘈杂。在理论上,应该可以从某些材料的所谓拓扑电子状态中做出非常低噪声的量子位,其中用于编码二进制信息的电子状态“形状”赋予对随机噪声的一种保护。微软的研究人员最突出的是在外来的量子材料中寻找这样的拓扑状态,但是不能保证他们会被发现或将被控制。

IBM的研究人员提出,量子计算在给定器件上的能力被表示为“量子体积”的数字,它将所有相关因素捆绑在一起:量子数的数目和连通性,算法的深度以及其他量度大门的质量,如嘈杂。量子计算的力量就是这个量子体积,Gambetta说现在最好的方法是开发量子计算硬件来增加可用的量子体积。

这就是为什么量子优势的观点比看起来更可行的原因之一,但是它留下了很多问题。跑赢哪个问题?你怎么知道量子计算机已经得到正确的答案,你能不能用一个久经考验的经典设备检查它?如果你能找到正确的算法,你怎么能确定传统的机器不会做得更好?

所以量子优势是一个谨慎处理的概念。一些研究人员现在更愿意谈论量子器件提供的加速。

Eisert说:“证明一个明确的量子优势将是一个重要的里程碑,它将证明量子计算机确实能够扩展技术上的可能性。”

与有用的计算资源转换相比,这可能更像是一种象征性的手势。但是这样的事情可能很重要,因为如果量子计算取得成功,那么IBM和Google就不会突然提供优质的新机器。而是通过开发人员和用户之间的互动,也许是凌乱的协作来实现的,只有当他们有足够的信念认为这项工作是值得的时,技术才会在后者中发展。

这就是为什么IBM和Google都热衷于在准备就绪后立即提供设备,除了为在线注册的任何人提供16-bit IBM Q体验之外,IBM现在还为摩根大通,戴姆勒,本田,三星和牛津大学等企业客户提供了20-qubit的版本。这不仅可以帮助客户发现他们的内容,它应该创建一个程序员的量子知识社区,他们将设计资源并解决问题,而不是单个公司可能会遇到的问题。

Gambetta说:“量子计算需要牵引和开花,我们必须让世界使用和学习它。”

编译来源:

  1. 论文 Demonstration of Topological Data Analysis on a Quantum Processor:https://arxiv.org/pdf/1801.06316.pdf
  2. https://www.quantamagazine.org/the-era-of-quantum-computing-is-here-outlook-cloudy-20180124/

原文发布于微信公众号 - 新智元(AI_era)

原文发表时间:2018-02-02

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏企鹅号快讯

你了解你的数据吗

0x00 前言 你了解你的数据吗? 前几天突然来了点灵感,想梳理一下自己对数据的理解,因此便有了这篇博客或者说这系列博客来聊聊数据。 数据从业者有很多,比如说数...

245100
来自专栏大数据挖掘DT机器学习

赛题解说|“达观杯”个性化推荐算法挑战赛技术讲解

达观杯推荐算法大赛开赛将近一个月,获得了大量选手的踊跃参与。为方便大家更好的理解赛题,本次将做一个较为全面的讲解,包括对赛题背景、赛题数据、评分规则等的详细讲解...

37840
来自专栏腾讯大讲堂的专栏

基于机器学习与动力学的社交传播研究

引言:6.14日“腾讯创新日:科技年技术盛宴”代表腾讯各个事业群技术实力的四级专家、腾讯微创新2016年度创意获奖团队欢聚一堂,一起畅谈AI、系统安全、架构设计...

39750
来自专栏Java学习网

软件开发人员的能力模型

不知觉做软件开发已经有6年了,回看自己的经历,可以说是相当有成就感,6年中通过不断的学习的实践,从一个菜鸟成长为一名软件架构师,这个过程可以说充满乐趣...

58950
来自专栏机器之心

INTERFACE | 从技术到产品,搜狗为我们解读了神经机器翻译的现状

INTERFACE 分享者:陈伟、李健涛 机器之心报道 参与:李泽南 3 月 12 日,搜狗正式在线上平台发布了「旅行翻译宝」。这款随身翻译设备结合了搜狗神经...

43140
来自专栏机器之心

专访 | UIUC陈德铭教授:「万能芯片」FPGA与深度学习

人工智能的风潮从技术一路蔓延到硬件,让「芯片」成为今年行业里盛极一时的主题。人们关注通用芯片领域里 CPU 和 GPU 不断刷新的基准(benchmark),更...

12020
来自专栏ATYUN订阅号

【学术】量子算法与计算机对抗,胜者究竟是谁?

我们对“量子霸权(quantum supremacy)”的追求证明了量子计算机比普通计算机能够更快地做一些事情,但是,却自相矛盾地导致了准量子典型算法的繁荣。 ...

33040
来自专栏新智元

【清华AI公开课】施尧耘:量子计算终将实现;段路明:大规模量子计算还任重道远

29440
来自专栏程序员笔记

我所相信的未必可信

21350
来自专栏大数据文摘

高管必备思维:区分2类问题和4类可视化方法

12420

扫码关注云+社区

领取腾讯云代金券