当神经网络遇上量子计算:谷歌证明量子神经网络可训练图像分类

晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI

谷歌人工智能量子(Google AI Quantum)团队最近发表了两篇论文,介绍了他们在理解量子计算机学习任务方面取得的新进展。

量子计算,它能给AI技术的发展带来什么帮助吗?

的确可以!

谷歌已经证明了量子计算也能解决传统机器学习中的图像分类问题,而且随着技术发展,量子计算机将在在学习能力上超越经典的神经网络。

另外量子计算还能解决经典网络中一些棘手问题,比如预防出现模型训练中的梯度消失问题。

量子神经网络

在第一篇论文中,谷歌构建一个神经网络的量子模型,研究如何在量子处理器上执行神经网络的分类任务。

谷歌把这个模型叫做量子神经网络(QNN),希望它能用在近期出现的量子处理器上。

虽然目前的工作主要是理论上的,但QNN的结构有助于在不久的将来对量子计算机进行实现和测试。

QNN可以通过标记数据的监督学习进行调整,谷歌已经在理论上证明了可以在MNIST数据集上训练它进行图像分类。

谷歌预计,随着量子计算机硬件规模的发展,未来QNN的能力将足够与经典神经网络匹敌,从而实现“量子霸权”。

在第二篇论文中,谷歌专注于量子神经网络和经典神经网络训练中的关键难题,即梯度消失或爆炸(vanishing or exploding gradients)的问题。

在传统的神经网络中,神经元权重良好的、无偏见的初始猜测通常与随机性无关,但是在某些情况下也存在一些困难。

量子计算恰恰能解决这方面的问题。

谷歌的论文表明,量子几何(quantum geometry)的独特特征能够阻止某些不良的初始化情况产生,帮助我们进入到到函数的稳定区,防止选取到那些会导致梯度消失的初始化策略。

这项工作对未来初始化和训练量子神经网络的策略具有指导意义。谷歌希望从这些量子几何状态中能获得启发,实现训练网络的新算法。

实现量子霸权

谷歌今年在量子计算领域动作频繁。

3月份,谷歌开发出了Bristlecone量子处理器,它拥有72个量子比特,是迄今为止最大的量子芯片。超过了IBM的50量子比特和英特尔的49量子比特。

谷歌希望用Bristlecone实现所谓量子霸权,即量子计算机在某些数学计算中的性能完全超过传统超级计算机。

NASA量子人工智能实验室(QuAIL)和谷歌一起,共同研究如何将“各种各样的优化和采样问题”映射到量子计算机上,希望在一年内实现该目标。

谷歌还计划在5年内实现量子计算技术的商业化。但这并不是说谷歌要推出面向市场的量子计算机。

由于超导量子计算机需要保持在接近绝对零度附近,因此不能把它从实验室里搬出来。预计谷歌届时会允许用户通过云API连接到量子计算机上。

论文地址

Classification with Quantum Neural Networks on Near Term Processors: https://arxiv.org/abs/1802.06002

Barren Plateaus in Quantum Neural Network Training Landscapes: https://www.nature.com/articles/s41467-018-07090-4

作者系网易新闻·网易号“各有态度”签约作者

本文分享自微信公众号 - 量子位(QbitAI)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2018-12-23

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券