【Nature封面论文】全球首台可编程量子计算机

【新智元导读】Nature今日封面论文描述了一台可编程小型量子计算机,由 5 个量子比特组成,能够进行三种不同的量子算法,研究人员使用激光调整这些离子,从而实现“可编程”。这台量子计算机能以98%左右的正确率运行,研究人员还表示,该设备有潜力可扩展成规模更大的量子计算机,最多可能达到 100 量子比特。这是全球首台可编程量子计算机,通过激光脉冲控制被固定的离子,实现灵活编程,是这项研究的最大突破。

8月4日出版的《自然》封面论文,介绍了美国马里兰大学量子研究人员所描述的一款可编程小型量子计算机。

全球首台可编程的量子计算机

美国马里兰大学的量子信息和计算机科学联合研究所(JQI)的研究员 Christopher Monroe 表示,他们的工作介绍了首个可编程、可以在软件调整设置的量子计算机。

计算体系结构:a. 软件到硬件操作层级;b. 硬件配置。

这项研究是建立在几十年来捕捉并控制离子的工作基础上。研究人员采用标准的方法移动离子,但又引入了全新的控制和衡量方式,包括使用激光移动离子,以及专门开设了检测通道,检测离子的光学性质。

美国国家科学基金会(NSF)物理分部项目负责人 Jean Cottam Allen 表示,这项工作属于物理前沿研究,正是 NSF 物理前沿中心(Physics Frontiers Centers)项目应有的表现,为实现真正的量子计算打下了基础。

研究人员测试了量子计算机最常用于解决的 3 种问题。论文第一作者、JQI 博士生 Shantanu Debnath 表示,这台“原型机”(module)能够灵活适用于解决多种不同的任务,而这一突破非常关键。

Debnath 表示,通过直接将任何一对量子比特连接起来,研究人员可以让量子计算机执行不同的算法。虽然目前只有 5 个量子比特,但 Debnath 认为他们已经具备知识,可以将原型机扩展。

量子计算国际布局

量子比特的独特属性使量子计算机在处理一些运算的时候速度更快,某些情形下计算能力较传统计算机可以说有指数级的增长。量子计算能有效推动化学、材料科学和粒子物理发展,未来可能最终会颠覆众多科学领域,人工智能也当属其中之一。

谷歌、IBM 等私人公司都对量子计算研发有所布局。上个月,新智元才报道过谷歌在量子计算机研发方面的进展:谷歌量子计算取得实质性突破。

根据《人民日报海外版》,欧盟 2008年发布《量子信息处理与通信战略报告》,提出了欧洲量子通信的分阶段发展目标,包括实现地面量子通信网络、星地量子通信、空地一体的千公里级量子通信网络等。2008年9月,欧盟发布了关于量子密码的商业白皮书,启动量子通信技术标准化研究,并联合了来自12个欧盟国家的41个伙伴小组成立了“基于量子密码的安全通信”工程。同年,该工程在维也纳现场演示了一个基于商业网络的包含6个节点的量子通信网络。同时,欧空局正在与来自欧洲、美洲、澳大利亚和日本的多国科学家团队合作开展空间量子实验。

美国国防部支持的“高级研究与发展活动”计划,致力于把量子通信应用拓展到卫星通信、城域以及远距离光纤网络。美国国防部高级研究计划署和洛斯阿拉莫斯国家实验室 2009 年分别建成了两个多节点量子通信互联网络,并与空军合作进行了基于飞机平台的自由空间量子通信研究。资料显示,美国航空航天局计划在其总部与喷气推进实验室之间建立一个直线距离 600 千米,光纤皮长大约 1000 千米、包含10个骨干节点的远距离光纤量子通信干线,并计划拓展到星地量子通信。

日本目前年投入2亿美元,规划在5至10年内建成全国性的高速量子通信网。日本的国家情报通信研究机构也启动了一个长期支持计划。日本国立信息通信研究院计划在2020年实现量子中继,到2040年建成极限容量、无条件安全的广域光纤与自由空间量子通信网络。2010 年,日本东京建成了6节点城域量子通信网络“Tokyo QKD Network”,在全网演示了视频通话,并演示了网络监控。

事实上,中国的量子通信技术已达到世界顶尖水平,领先欧美国家。今年,世界上第一条量子通信保密干线“京沪干线”将开通。就在8月,由中国自主研发的世界首颗“量子科学实验卫星”发射在即。

7月26日,白宫发布官方博文,文章援引了美国国家科学技术委员会(NSTC)7月提出的报告《推进量子信息科学:国家的挑战与机遇》。报告建议加大对量子信息科学的投入,号召要求学术界、工业界和政府尽快就此议题交流意见,以保证量子信息研发的关键需求得到满足。至此,国与国之间的量子研发争夺愈发激烈。

现有问题

不过,Nature 今天刊发来信中所描述的这台量子计算机,其核心构成部分跟“量子计算”还没有实质关联。

控制量子计算机实现各种量子算法的,是激光脉冲的各种不同组合动作,激光脉冲负责打开或关闭量子逻辑门,而激光脉冲的各种不同组合动作,实际上就控制着量子算法具体如何进行。而含有这些激光脉冲不同动作的数据库,是事先经由普通计算机计算得出的,实际使用时,通过转换装置,变成激光脉冲的不同组合动作。也就是说,操控研究人员描述的这台量子计算机的根本,还是普通的计算机逻辑。

量子算法:a. Deutsch–Jozsa. b 输出状态, c. Bernstein–Vazirani 算法回路,d. 输出状态

每个量子算法都有三个基本组成要素:①处于特定状态下的量子比特;②这些量子比特经过一系列的量子逻辑门;③测量输出的量子化。

进行量子计算时,首先用一种颜色的激光处理量子比特,使其达到某种激发态,然后,另一种颜色的激光会打开或者关闭量子逻辑门,最后,原先那种颜色的激光会读取量子比特的新状态。

使用激光开合量子逻辑门的好处是,将量子算法转换为一系列不同的激光动作,从而可以从外界改变算法,也即所谓的“可编程”。目前,世界上的其他量子计算结构都无法实现这样的灵活性。

QFT:a. 准备状态;b. 找寻输入状态;c. 输出量子态评估

此外,计算精度仍需提高。

量子傅里叶变换(Quantum Fourier Transform,QFT),也是 Shor 量子算法的关键。在实验中,其他两种算法的正确率都超过了90%,而QFT的正确率最高不到 70%。要实现真正的量子计算,QFT的正确率必须达到99%以上才行。

研究人员表示,正确率低的原因跟激光脉冲门的残差错误(residual errors)有关,跟系统在进行运算时,随着时间推移积累的系统误差也有一定的关联。

谷歌量子计算负责人 Hartmut Neven 表示,只要无法实现 5 量子比特以上的精确计算,那么这离实际应用就有十分遥远的距离。Neven 在接受《华尔街日报》记者采访时表示,大多数研究用量子计算机都是 5 量子比特,只要没有超过这个规模,事情仍旧停留在实验室里。

谷歌也参与研究的大规模量子计算机 D-Wave 系统拥有 1152 量子比特,但其稳定性还有待提高。

最终的分歧在于,是使用单个离子做阵列,还是采用在一个量子单元里聚集在一起的大量超导比特。谷歌、IBM 等公司使用的是后者,因为后者速度更快,而且能够制作体积较小的芯片。另一方面,固定的量子比特计算稳定性更高,只是扩展性不强。(在量子计算方面,微软采用的又一种完全不同的方法。)

不过,MIT的量子信息研究人员 Isaac Chuang 认为,将来的量子机器可能会拥有多种特点,比如结合固定量子比特与超导比特的特性,这也是未来多用量子计算机的一个发展方向。

原文发布于微信公众号 - 新智元(AI_era)

原文发表时间:2016-08-04

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI科技大本营的专栏

应用 | 红黄蓝的虐童惨案,其实可以用机器学习等技术来避免

作者 | 阿萨姆 魔都携程亲子园事件还未平息,帝都的RYB“虐童案”又粉墨登场。随着越来越多的有关婴幼儿教育的丑闻曝光,如何保障孩子,尤其是幼龄儿童的生命健康安...

35811
来自专栏AI科技评论

业界 | 计算芯片革命来临?英伟达谷歌入局紧逼英特尔

AI 科技评论按:随着神经网络的研究和应用越来越多,人们也越发地认识到神经网络所需的计算力近乎于无底洞 。如果说高校实验室和一般爱好者在耐心等待之外办法不多的话...

35510
来自专栏互联网数据官iCDO

对混乱的市场营销技术的整合模型推荐

译者:Julie Zhou 审校:Nic 本文长度为1477字,预估阅读时间5分钟。 摘要:很多市场从业者对于各种营销技术感到困惑,他们通常不清楚应该怎样对解...

2896
来自专栏机器人网

真正能和人交流的机器人离我们有多远?

《经济学人》近日刊登文章,称计算机在翻译、语音识别和语音合成上都获得了很大的进步,但它们仍然不了解语言的含义。以下是原文内容: “对不起,戴夫,恐怕我不能这样做...

2243
来自专栏人工智能头条

如何用机器学习和知识图谱来实现商业智能化? | CCAI 演讲实录

1903
来自专栏新智元

AI 翻译能够取代人类?微软黄学东:我们仍在感知智能和认知智能的过渡期

黄学东 微软全球技术院士 精彩回顾 2018 新智元产业跃迁 AI 技术峰会圆满结束,点击链接回顾大会盛况: 爱奇艺 http://www.iqiyi...

3166
来自专栏企鹅号快讯

量子技术与人工智能:同时进化的双生子

诞生于 1965 年的摩尔定律,对二十世纪后半叶的世界经济增长做出了巨大贡献,并驱动了一系列科技创新和经济增长。摩尔定律预测集成电路上晶体管的数量每两年翻一倍,...

22810
来自专栏机器之心

业界 | 斯坦福大学Brainstorm神经形态芯片:未来计算的新方向

选自Nextplatform 作者:Nicole Hemsoth 机器之心编译 参与:李泽南、李亚洲 随着摩尔定律终点的临近和机器学习对计算需求的提升,人们对于...

3338
来自专栏AI科技评论

喊话黄仁勋: 在TPU这事上谷歌高调吗?

AI科技评论按:谷歌毕竟就只是发了一篇描述一个数年前就开始的项目的内部结构和一些性能参数的论文和一篇提炼了其中一些内容的博文而已,但前两天TPU的发布却让黄仁勋...

3396
来自专栏理论坞

作为UX设计师应当知道的22件事

这篇大实话文章,我非常喜欢,因为几乎大部分观点和内容在我带新人,或是讲课过程中,都有提及过。与其说这是一篇写给新设计师的职场准则,我更愿意说是写个所有设计师的,...

781

扫码关注云+社区

领取腾讯云代金券