【Google 重磅论文】人工智能关键模型,量子计算快1亿倍(论文下载)

今天 Google 量子人工智能实验室公布,Google 和 NASA 在 2013 年购买的量子计算机,在最近一系列的测试中都完胜经典计算机,成绩令人瞩目。

图1:盒子里是冷却到绝对零度以内的超导芯片,它可能成为人工智能软件的新推力

Goolge 宣布,他们有证据表明,那台采购于 2013 年的量子计算机确实能够通过量子物理学的工作方式解决某种在人工智能领域至关重要的数学问题,运算速度比经典计算机要快得多。

各国政府和业界领先的计算机公司(Microsoft、IBM、Google等)正在尝试研发所谓的量子计算机。因为,用量子物理学的神奇属性来表征数据,能够解放出无穷大的数据处理性能。计算机巨头们相信,量子计算机可以让它们的人工智能软件性能变得更加完备和强大,并为材料科学等领域带来巨大飞跃。NASA 希望能借助量子计算机制定火箭发射时间表,以及用来对未来的任务和宇宙飞船作模拟。Deepak Biswas 说:“这确实是一种颠覆性技术,能够改变我们做一切事情的方法”,他来自位于加利福尼亚山景城的 NASA Ames 研究中心,是探索技术的主管。

Biswas 在研究中心的简要媒体发布会上提及了NASA和 Google 对于那台 2013 年从D-Wave系统公司(加拿大初创企业,宣称研发出售了“全球第一台商用量子计算机”)购买的机器所做的一些工作。这台计算机被部署在加州山景城的 NASA’s Ames 研发中心,采用一种被称为“量子退火器”的超导芯片来对数据进行操作。“量子退火器”芯片中硬编码了一种适用于“最优化问题”(optimization problems)的算法,这种算法在机器学习和人工智能软件中很常见。

然而 D-Wave 的芯片在量子物理学家中存在不少争议。无论是这家公司的研究者、还是其他研究者,一直以来都无法令人信服地证明D-Wave设备进入量子物理的领域、击败经典计算机。

Google 位于洛杉矶的量子人工智能实验室的负责人 Hartmut Neven 今天宣布,他们的研究团队已经找到了证明这件事的可靠证据。他们为部署在 NASA 的 D-Wave 计算机和只有单个处理器的经典计算机设置了一系列的比赛。Neven 说,“在一个特定的、精心设计的概念证明问题上,量子计算机(相比于经典计算机)实现了1 亿倍的速度提升。”

谷歌昨晚也发布了这篇研究论文,公布了这次量子计算机的测试结果,但是这篇论文并没有经过正式的同行评议。Neven说,这篇论文很快就会发表在同行评议的期刊上。

谷歌的结果是惊人的——但即使这些结果被验证了,也只是为D-Wave做了一部分平反。在与量子计算机的竞赛中落败的计算机使用的是与D-Wave芯片相似的算法。已知有另一种算法可以让经典计算机在与量子计算机的竞赛中更有竞争力,甚至可能赢得胜利——通过利用D-Wave设计中Neven所称的“bug”。Neven说,他的团队所做的这次测试仍然是非常重要的,因为,在未来与能够处理更大体量数据的量子计算机竞争时,经典计算机将不再能够利用这种“bug”。

谷歌和D-Wave正在竞争进一步发展量子计算机。去年夏天,这个硅谷巨头在Santa Barbara建立了一个新的实验室,由一流的学界研究者John Martinis领导。

Martinis也从事于量子计算硬件的研究工作,不像“退火器”芯片那样只局限于“最优化”问题。一个通用的量子计算机是能够经过编程来解决任何问题的,应该会更实用,但在预期中需要花费更长时间来达到这种完美的境界。政府、大学实验室、微软以及IBM也在从事这项技术的研究。

Google公司的工程副总裁John Giannandrea说,如果“量子退火器”能够被实际应用,他们会找到许多用法来加强Google的机器学习软件。“我们已经遇到了产品中一些无法用现存的电脑解决的问题,即使我们有许多电脑也无济于事”,然而,Giannandrea也承认:“可能要经过数年的时间,这项研究才能对谷歌产品产生重大的影响。”

论文摘要:量子退火算法何时取得胜利?

在过去的两年,Google 量子人工智能实验室在理解物理学支配量子退火机器中取得进步。我们最近将这些新的想法应用于构建理论验证优化问题(proof-of-principle optimization problems)中,并将这些编写到D-Wave2X量子退火机器里,这台量子计算机是谷歌与NASA共同运行的。这些问题的设计初衷旨在展现,量子退火算法对于以崎岖能量图景(rugged energy landscapes)为特征的NP完全优化问题在运算时间上很有优势。

我们发现对于涉及将近1000个二值变量的问题,量子退火算法的表现立刻显著地超过它的经典对手——模拟退火算法。在单核的运行上,量子退火算法比模拟退火算法快了1亿倍。我们也比较了量子硬件与量子蒙特卡罗(Monte Carlo)算法。这是一个设计出来用于模拟量子系统行为的方法,但它是在传统的处理器上运行的。虽然两种方法在尺寸缩放上是相当的,但是它们有时也会有10^8级别的差别。

图中呈现的是99%的可能性发现不同问题优化解决方案的时间。我们比较了模拟退火算法(SA),量子蒙特卡罗算法(QMC)和D-Wave 2X。实线和虚线,表示的是一百个实例中的50,75,85的百分值。我们观察到D-Wave 2X量子退火机器在崎岖能量图景下的这种优化问题上要快指数级别的倍数。对于这样的问题,量子隧道贯穿是一种克服高而窄的能量势垒的有用计算资源。

虽然这些结果很诱人,也很鼓舞人心,但是将量子加强式优化变为实际技术还有很多工作要做。下一代的退火机器必须推进实际相关问题的嵌入。例如,我们想要增加量子比特之间、量子比特一致性之间连接的密度和控制精度。我们希望在工程中加入的另一个增强点是不仅仅支持二次优化的表达,还要支持更高阶的优化表达。这强调了,不仅仅是成对的,而且是更大集合的量子比特能够直接相互作用。我们的量子硬件小组正致力于这些改进中,这会让用户更容易输入NP完全优化问题。对于高阶优化问题,崎岖的能量图景情况会更加常见。有这样图景问题的解决会受益于量子优化,因为量子隧道贯穿更容易让其克服高而窄的能量壁垒。

我们应该注意到,确实有算法能够使用当前D-Wave处理器的量子比特稀疏连接(sparse qubit connectivity),也能够比当前量子硬件更快地解决我们的理论验证问题,如以集群寻找(cluster finding)算法为基础的技术。但是由于下一代退火机器更大密度的连接,我们发现那些方法会失效。另外,据我们的经验,我们发现精益随机局部搜索(lean stochastic local search)技术,如模拟退火,经常是基本没有结构可循的NP完全问题的最有竞争力的技术。因此,我们将模拟退火算法作为量子退火算法在通用经典算法中的主要竞争对手。我们对于以下情况抱有乐观的态度,即随着这些问题发生在机器智能相关的任务中,我们所发现的运行时间的显著减少会在商业相关问题中起到作用。

差别:量子计算机和经典计算机

经典计算机通过操作比特(bit)的方式来工作。比特有两种可能的状态:0或是1。那么,一台有N比特的计算机就有2^N种可能的状态,它可以处于其中一种状态。然而,在量子力学中,一个物体可以在同一时间存在于超过一种的状态中——我们称它处于“叠加态”(superposition of states)中。原则上任何物体都可以处于叠加态中,但问题是,控制和观察这种现象是非常复杂的一件事。

想象一下输入2个比特、输出2个比特的操作。它输入和输出的状态都有4种,我们可以写作|01>,|10>,|00>以及|11>。在一台经典计算机中,你可以选择其中任何一个输入,然后看看最后会输出什么。而在一台量子计算机中,你可以同时输入所有这4种状态,以叠加态的形式,|01>+|10>+|00>+|11>(也就是说,如果你有N个量子比特,你可以同时输入2^N种状态)。不幸的是,于是你的输出可能也会是一个叠加态,那么测量和解释这个输出状态就会变得相当复杂。这就是为什么想要为量子计算机设计算法是一件非常困难的事情,到目前为止只有寥寥无几的成果。但对于已经存在的量子算法来说,与经典计算机上的算法相比,它们带来的加速效果理论上来说应该是指数级的——想想在经典计算机上只能一次进行一个输入、而量子计算机上一次能进行2^N个输入吧。

论文全文(可下载)

原文发布于微信公众号 - 新智元(AI_era)

原文发表时间:2015-12-09

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

【清华AI公开课】施尧耘:量子计算终将实现;段路明:大规模量子计算还任重道远

2224
来自专栏量子位

英特尔中国研究院院长宋继强:AI的丰富应用与芯片发展 | 北大AI公开课笔记

周三晚,北京大学“人工智能前沿与产业趋势”第四讲,本期英特尔中国研究院院长宋继强授课主题为“人工智能的丰富应用与芯片发展”,分享计算硬件与AI芯片的发展现状及趋...

802
来自专栏AI科技大本营的专栏

机器学习到底能创造什么价值?我们精选了9位从业者的答案

来源 | HackerNews 编译 | 晓查 不温不火的机器学习忽然蹿红业界,也就是这两三年的事,于是不仅传统行业,连风光一时的互联网公司也开始疑惑:我们要不...

26911
来自专栏AI科技评论

对话LSTM之父Jürgen Schmidhuber:为什么我觉得“AI奴役人类”的说法很愚蠢?

AI科技评论按:9月12日上午,南京金秋洽谈会“2017中国人工智能峰会(CAIS 2017)”在南京国际博览会议中心盛大开幕。本次峰会以“创新、变革、突破”为...

2014
来自专栏AI科技评论

《Science》杂志:机器学习究竟将如何影响人类未来的工作?

AI 科技评论按:人工智能、机器学习相关技术已经多次刷新了人们对于「计算机能做什么」的认知,那么紧接着的一个问题就是「计算机会不会替代人类的工作」。李开复就曾经...

34617
来自专栏机器人网

人工智能学坏了!已出现种族和性别偏见…

英国媒体《卫报》今日发表评论文章指出,人工智能已经开始出现了种族和性别偏见,但是这种偏见并非来自机器本身,而是计算机在学习人类语言时吸收了人类文化中根深蒂固的观...

3186
来自专栏人工智能

CCCF 微软沈向洋:理解自然语言:表述、对话和意境

来源:《中国计算机学会通讯》2017年第12期《CNCC2017特邀报告》 微软全球执行副总裁沈向洋博士在2017年10月25日在福州举行的中国计算机大会(CN...

2105
来自专栏PPV课数据科学社区

【学习】如何成长为顶级数据分析师和数据挖掘师?

#玩转大数据#12点的钟声敲响后,意味着已经跨过2015,进入2016了。新的一年应该拥有新的开端以及新的计划目标,也标志着新的希望。一个数据科学家在年尾做了一...

3594
来自专栏罗超频道

2014年百度瞄准图像搜索

摘要:李彦宏早在三年前便宣称“读图时代”的到来,而瀑布流、Pinterest、Snapchat等图片应用更是掀起了图片应用之风,图片已经成为移动设备最重要的内容...

2765
来自专栏新智元

《AI寒冬将至》作者:人工智能存在十大问题

【新智元导读】不久前,一篇题为《AI寒冬将至》的文章火了,引发AI领域专家学者、研究人员、学生甚至吃瓜群众的大量讨论。该文对有关深度学习的炒作提出批评,认为深度...

530

扫码关注云+社区