谷歌公布72位量子比特处理器,吹响量子霸权冲锋号

AI 科技评论按:谷歌量子 AI 实验室今天发布了新的 72 位量子比特的量子处理器 Bristlecone。虽然目前还没有看到具体的实验结果,但这块芯片的未来有很大潜力,很有可能达成量子计算领域内的重要里程碑。谷歌也在研究博客发表了一篇介绍文章,雷锋网 AI 科技评论全文翻译如下。

谷歌量子 AI 实验室(Google Quantum AI lab)的目标是建造可以用于解决真实世界问题的量子计算机,他们的研究策略是在可以和大规模、通用化、可纠错的量子计算机向前兼容的系统上探索短期解决方案。为了让量子处理器运行经典模拟算法之外的算法,它当然需要更多的量子比特(qubit)数目,但它还需要更多。最关键的是,这个处理器必须在读取以及单、双量子比特门之类逻辑操作中保持很低的错误率。

一年一度的美国物理学会(American Physical Society)会议正在洛杉矶举行,谷歌量子 AI 实验室今天就在会议上公布了他们新的量子处理器 Bristlecone。这是一个基于门电路的超导系统,它的设计目标就是为谷歌的量子技术提供系统错误率和拓展性的研究测试平台,当然也可以探索量子模拟、量子优化以及量子机器学习方面的应用。

Bristlecone 是谷歌的最新量子处理器(左图)。右侧是这个芯片的结构示意图,每一个「X」代表一个量子比特,相邻最近的量子比特之间是相连的

谷歌之前设计的 9 量子比特的线性矩阵已经展现出了低读取错误率(1%)、低单量子比特门错误率(0.1%)、以及最重要的低双量子比特门错误率(0.6%),这也是谷歌目前所能达到的最好结果。新的 Bristlecone 的指导设计思路就是延续之前技术中的物理特性,在耦合、控制、读取中都使用了同样的方法,但把矩阵规模大幅扩大到了 72 量子比特。谷歌之所以选择把新的芯片设计到这个规模,是希望未来得以展示「量子霸权」(指对于某些问题, 量子算法的效率远远优于经典算法)、可以通过表层编码做一阶和二阶的错误纠正,以及帮助为真正的通用化硬件设计量子算法。

展示错误率和量子比特数目之间关系的二维概念示意图。图中的红线表示谷歌量子 AI 实验室的研究方向,他们希望沿着这个方向、以构建出带有错误纠正能力的量子计算机为目标,先取得一些短期应用成果

在探究具体的应用之前,量化认识量子处理器的计算能力也是很重要的一件事。已经有别的理论物理团队为这项任务开发了 benchmark 工具。对于错误率测试,可以向设备输入一个随机的量子电流作为单个系统误差,然后检查样本的输出扰动并把它和经典方法模拟的结果做对比。如果一个量子处理器运行时的错误率最够低,它运行某些定义好的计算机科学问题的速度就可以远超过经典方法的超级计算机,这也就是我们所说的「量子霸权」。测试中使用的随机电流在量子比特数目和计算长度(深度)两个方面都需要足够大。虽然目前还没有人达到错误率 0% 的目标,但是根据谷歌量子 AI 实验室计算,只需要量子比特数目达到 49 位、电路深度超过 40、双量子比特门错误率低于 0.5% 就已经可以展现出明显的「量子霸权」。谷歌相信,一次成功的量子处理器超越经典超级计算机的实验将成为这个领域的分水岭,而这也将是谷歌量子 AI 团队追寻的重点目标。

位于 Santa Barbara 的谷歌量子 AI 实验室中,研究科学家 Marissa Giustina 正在安装一块 Bristlecone 芯片

谷歌量子 AI 团队之前已经在 9 位量子比特的设备上取得了目前最佳的错误率,他们也正在努力尝试在 Bristlecone 的所有 72 个量子比特上都取得类似的表现。一旦 Bristlecone 获得全面成功,这也将为构建更大规模的量子计算机提供极具说服力的原理论证。要让 Bristlecone 这样的设备以低系统错误率运行,也需要软件设计、电子控制和处理器本身等一系列技术的协调工作,只有经过非常仔细的系统工程和多次迭代更新才有可能达成。

对于用 Bristlecone 达成「量子霸权」,谷歌量子 AI 团队保持谨慎乐观的态度,同时也觉得学习建造和运行这种性能级别的设备是一个令人兴奋的挑战。谷歌量子 AI 团队也非常期待未来得以展示自己的实验成果,以及和别的团队共同协作尝试更多实验。

via GoogleBlog,AI 科技评论编译。

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2018-03-06

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏BestSDK

352位AI专家解读:AI是否会全面超越人类?

AI可能会在各种任务中胜过人类,这将对社会产生巨大影响,因此预测一些技能或工作何时会被机器人取代,对决策者而言意义重大。 但这个领域非常复杂,它有很多专门的子学...

3345
来自专栏AI科技评论

北大黄铁军教授:「智能为用,机器为体」,30 年内实现人造大脑

AI 科技评论按:在去年年底北京大学举办的人工智能前沿论坛上,黄铁军教授做了题为《强人工智能之路》的演讲。 黄铁军教授,北京大学信息科学技术学院教授,计算机科学...

2933
来自专栏华章科技

2018-2019年人工智能领域十大最具成长性技术展望

导读:近日,在2018世界机器人大会主论坛上,中国电子学会发布《新一代人工智能领域十大最具成长性技术展望(2018-2019年)》。

913
来自专栏AI研习社

全球八位科学家谈计算机视觉:眼见为实

2018年9月6日,腾讯优图将联合国际顶级期刊《科学》(Science)杂志共同举办计算机视觉峰会,邀约来自全球计算机视觉领域的顶级专家学者,探讨计算机视觉的前...

963
来自专栏CSDN技术头条

量子计算应对大数据挑战: 中国科大首次实现量子机器学习算法

中国科学技术大学潘建伟教授及其同事陆朝阳、刘乃乐等组成的研究团队在国际上首次实现量子机器学习算法。日前,国际权威物理学期刊《物理评论快报》发表了这一论文[Phy...

1806
来自专栏华章科技

剑桥大学:156页PPT全景展示AI过去的12个月(附下载)

导读:剑桥大学Nathan Benaich 与Ian Hogarth 博士共同发布关于人工智能最近12个月进展的报告,其中包含对新技术,人才流动,工业界动向,各...

871
来自专栏吉浦迅科技

运用深度学习技术,从医疗扫描结果中找出疾病

“都消失了。”Jeet Samarth Raut 的母亲在进行一次放射线扫描后听到这个好消息。 两周后,另一名医师的检查结果表示是乳癌。当然科技能做到更好的诊断...

3965
来自专栏大数据文摘

微软张亚勤:未来10年机器智能超过常人

3187
来自专栏人工智能快报

IBM类脑计算机正式上市

据《计算机世界》网站2016年3月31日报道,IBM迄今为止最大型的类脑计算机NS16e正式上市。首个采购NS16e的买家是美国劳伦斯·利弗莫尔国家实验室,IB...

3445
来自专栏达观数据

达观数据2018Qcon分享深度学习前沿应用,文本智能处理前景无限

1823

扫码关注云+社区