【Google 重磅论文】人工智能关键模型,量子计算快1亿倍(论文下载)

今天 Google 量子人工智能实验室公布,Google 和 NASA 在 2013 年购买的量子计算机,在最近一系列的测试中都完胜经典计算机,成绩令人瞩目。

图1:盒子里是冷却到绝对零度以内的超导芯片,它可能成为人工智能软件的新推力

Goolge 宣布,他们有证据表明,那台采购于 2013 年的量子计算机确实能够通过量子物理学的工作方式解决某种在人工智能领域至关重要的数学问题,运算速度比经典计算机要快得多。

各国政府和业界领先的计算机公司(Microsoft、IBM、Google等)正在尝试研发所谓的量子计算机。因为,用量子物理学的神奇属性来表征数据,能够解放出无穷大的数据处理性能。计算机巨头们相信,量子计算机可以让它们的人工智能软件性能变得更加完备和强大,并为材料科学等领域带来巨大飞跃。NASA 希望能借助量子计算机制定火箭发射时间表,以及用来对未来的任务和宇宙飞船作模拟。Deepak Biswas 说:“这确实是一种颠覆性技术,能够改变我们做一切事情的方法”,他来自位于加利福尼亚山景城的 NASA Ames 研究中心,是探索技术的主管。

Biswas 在研究中心的简要媒体发布会上提及了NASA和 Google 对于那台 2013 年从D-Wave系统公司(加拿大初创企业,宣称研发出售了“全球第一台商用量子计算机”)购买的机器所做的一些工作。这台计算机被部署在加州山景城的 NASA’s Ames 研发中心,采用一种被称为“量子退火器”的超导芯片来对数据进行操作。“量子退火器”芯片中硬编码了一种适用于“最优化问题”(optimization problems)的算法,这种算法在机器学习和人工智能软件中很常见。

然而 D-Wave 的芯片在量子物理学家中存在不少争议。无论是这家公司的研究者、还是其他研究者,一直以来都无法令人信服地证明D-Wave设备进入量子物理的领域、击败经典计算机。

Google 位于洛杉矶的量子人工智能实验室的负责人 Hartmut Neven 今天宣布,他们的研究团队已经找到了证明这件事的可靠证据。他们为部署在 NASA 的 D-Wave 计算机和只有单个处理器的经典计算机设置了一系列的比赛。Neven 说,“在一个特定的、精心设计的概念证明问题上,量子计算机(相比于经典计算机)实现了1 亿倍的速度提升。”

谷歌昨晚也发布了这篇研究论文,公布了这次量子计算机的测试结果,但是这篇论文并没有经过正式的同行评议。Neven说,这篇论文很快就会发表在同行评议的期刊上。

谷歌的结果是惊人的——但即使这些结果被验证了,也只是为D-Wave做了一部分平反。在与量子计算机的竞赛中落败的计算机使用的是与D-Wave芯片相似的算法。已知有另一种算法可以让经典计算机在与量子计算机的竞赛中更有竞争力,甚至可能赢得胜利——通过利用D-Wave设计中Neven所称的“bug”。Neven说,他的团队所做的这次测试仍然是非常重要的,因为,在未来与能够处理更大体量数据的量子计算机竞争时,经典计算机将不再能够利用这种“bug”。

谷歌和D-Wave正在竞争进一步发展量子计算机。去年夏天,这个硅谷巨头在Santa Barbara建立了一个新的实验室,由一流的学界研究者John Martinis领导。

Martinis也从事于量子计算硬件的研究工作,不像“退火器”芯片那样只局限于“最优化”问题。一个通用的量子计算机是能够经过编程来解决任何问题的,应该会更实用,但在预期中需要花费更长时间来达到这种完美的境界。政府、大学实验室、微软以及IBM也在从事这项技术的研究。

Google公司的工程副总裁John Giannandrea说,如果“量子退火器”能够被实际应用,他们会找到许多用法来加强Google的机器学习软件。“我们已经遇到了产品中一些无法用现存的电脑解决的问题,即使我们有许多电脑也无济于事”,然而,Giannandrea也承认:“可能要经过数年的时间,这项研究才能对谷歌产品产生重大的影响。”

论文摘要:量子退火算法何时取得胜利?

在过去的两年,Google 量子人工智能实验室在理解物理学支配量子退火机器中取得进步。我们最近将这些新的想法应用于构建理论验证优化问题(proof-of-principle optimization problems)中,并将这些编写到D-Wave2X量子退火机器里,这台量子计算机是谷歌与NASA共同运行的。这些问题的设计初衷旨在展现,量子退火算法对于以崎岖能量图景(rugged energy landscapes)为特征的NP完全优化问题在运算时间上很有优势。

我们发现对于涉及将近1000个二值变量的问题,量子退火算法的表现立刻显著地超过它的经典对手——模拟退火算法。在单核的运行上,量子退火算法比模拟退火算法快了1亿倍。我们也比较了量子硬件与量子蒙特卡罗(Monte Carlo)算法。这是一个设计出来用于模拟量子系统行为的方法,但它是在传统的处理器上运行的。虽然两种方法在尺寸缩放上是相当的,但是它们有时也会有10^8级别的差别。

图中呈现的是99%的可能性发现不同问题优化解决方案的时间。我们比较了模拟退火算法(SA),量子蒙特卡罗算法(QMC)和D-Wave 2X。实线和虚线,表示的是一百个实例中的50,75,85的百分值。我们观察到D-Wave 2X量子退火机器在崎岖能量图景下的这种优化问题上要快指数级别的倍数。对于这样的问题,量子隧道贯穿是一种克服高而窄的能量势垒的有用计算资源。

虽然这些结果很诱人,也很鼓舞人心,但是将量子加强式优化变为实际技术还有很多工作要做。下一代的退火机器必须推进实际相关问题的嵌入。例如,我们想要增加量子比特之间、量子比特一致性之间连接的密度和控制精度。我们希望在工程中加入的另一个增强点是不仅仅支持二次优化的表达,还要支持更高阶的优化表达。这强调了,不仅仅是成对的,而且是更大集合的量子比特能够直接相互作用。我们的量子硬件小组正致力于这些改进中,这会让用户更容易输入NP完全优化问题。对于高阶优化问题,崎岖的能量图景情况会更加常见。有这样图景问题的解决会受益于量子优化,因为量子隧道贯穿更容易让其克服高而窄的能量壁垒。

我们应该注意到,确实有算法能够使用当前D-Wave处理器的量子比特稀疏连接(sparse qubit connectivity),也能够比当前量子硬件更快地解决我们的理论验证问题,如以集群寻找(cluster finding)算法为基础的技术。但是由于下一代退火机器更大密度的连接,我们发现那些方法会失效。另外,据我们的经验,我们发现精益随机局部搜索(lean stochastic local search)技术,如模拟退火,经常是基本没有结构可循的NP完全问题的最有竞争力的技术。因此,我们将模拟退火算法作为量子退火算法在通用经典算法中的主要竞争对手。我们对于以下情况抱有乐观的态度,即随着这些问题发生在机器智能相关的任务中,我们所发现的运行时间的显著减少会在商业相关问题中起到作用。

差别:量子计算机和经典计算机

经典计算机通过操作比特(bit)的方式来工作。比特有两种可能的状态:0或是1。那么,一台有N比特的计算机就有2^N种可能的状态,它可以处于其中一种状态。然而,在量子力学中,一个物体可以在同一时间存在于超过一种的状态中——我们称它处于“叠加态”(superposition of states)中。原则上任何物体都可以处于叠加态中,但问题是,控制和观察这种现象是非常复杂的一件事。

想象一下输入2个比特、输出2个比特的操作。它输入和输出的状态都有4种,我们可以写作|01>,|10>,|00>以及|11>。在一台经典计算机中,你可以选择其中任何一个输入,然后看看最后会输出什么。而在一台量子计算机中,你可以同时输入所有这4种状态,以叠加态的形式,|01>+|10>+|00>+|11>(也就是说,如果你有N个量子比特,你可以同时输入2^N种状态)。不幸的是,于是你的输出可能也会是一个叠加态,那么测量和解释这个输出状态就会变得相当复杂。这就是为什么想要为量子计算机设计算法是一件非常困难的事情,到目前为止只有寥寥无几的成果。但对于已经存在的量子算法来说,与经典计算机上的算法相比,它们带来的加速效果理论上来说应该是指数级的——想想在经典计算机上只能一次进行一个输入、而量子计算机上一次能进行2^N个输入吧。

论文全文(可下载)

原文发布于微信公众号 - 新智元(AI_era)

原文发表时间:2015-12-09

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

当无人机学会人工智能,它将是世界上最恐怖的武器

外媒称,五角大楼将提供资金,以研发一种小型芯片。这种芯片不仅有着类似人类大脑的人工智能,而且它很小,可以安装到大量移动设备上。 英国网站2月8日发表题为《会像...

2173
来自专栏新智元

Facebook AI 背后的神秘组织:FAIR + AML + Product Groups

Yann LeCun 是 Facebook 人工智能实验室负责人,卷积神经网络发明者。面对 Google 的 AlphaGo,他最近谈到了 Faceboo...

3886
来自专栏人工智能头条

诺亚方舟实验室李航:深度学习还局限在复杂的模式识别上

1435
来自专栏人工智能快报

IBM类脑计算机正式上市

据《计算机世界》网站2016年3月31日报道,IBM迄今为止最大型的类脑计算机NS16e正式上市。首个采购NS16e的买家是美国劳伦斯·利弗莫尔国家实验室,IB...

3735
来自专栏AI科技评论

苏州大学张民教授两小时讲座精华摘录:自然语言处理方法与应用

2018 中国人工智能大会(CCAI 2018)于 7 月 28 日-29 日于深圳召开。「过去未去,未来已来」,李德毅院士在 CCAI 2018 开幕式上对人...

1214
来自专栏新智元

IBM 最强神经形态芯片电脑出货,与人类大脑又近一步

人类觉得电脑厉害,殊不知最厉害的电脑是人脑。IBM说,我们想做可以像人类一样做决策的电脑。本周,NS16e,IBM以人类大脑为灵感的最大电脑出货,目标远大。 N...

3477
来自专栏AI科技大本营的专栏

2016:深度学习独领风骚的一年

作者: CADE METZ 编译: AI100 原文地址: https://www.wired.com/2016/12/2016-year-deep-lear...

34114
来自专栏携程技术中心

搭建技术分享平台,携程技术中心深度学习Meetup回顾

今天由携程技术中心主办的深度学习Meetup在凌空SOHO举办。作为上海最顶级的深度学习大会,活动吸引了BI、机器学习、大数据等领域的工程师和高校教授们参与,会...

3376
来自专栏AI研习社

机器人聊天的秘密|硬创公开课

语义理解简单来说,就是让计算机听懂用户说了什么,然后可以进一步回答用户的问题或与用户对话。这类技术在现实场景中的应用有大家比较熟知的微软小冰与百度度秘。锤子手机...

3484
来自专栏新智元

谷歌:量子计算是深度学习的完美选择么?(12月8日将发布转折消息)

在过去的几年里,谷歌一直在试着提升他人工智能的服务水平。谷歌恰好也有量子计算机——一个能够在某些计算上执行速度比经典计算机快的系统。 认为谷歌会把运行AI的工作...

4098

扫码关注云+社区