通往未来人工智能的三条途径:量子计算、神经形态计算和超级计算

美国“数据科学中心”(Data Science Central)网站的编辑总监William Vorhies撰文表示,量子计算、神经形态计算和超级计算可以带来更快、更简单、更廉价、更聪明的人工智能。

人工智能与深度学习存在一个问题—实际上是三个。

时间:训练像卷积神经网络(CNN)或循环神经网络(RNN)[A1] 这样的深度网络可能需要几周时间。这还不包括深度网络在达到所需的性能阈值之前定义问题以及深度网络编程过程中的不断成功与失败所耗费的数周甚至数月的时间。

成本:让数百个图形处理器(GPU)连续进行数周计算的成本很高。如果从亚马逊的云计算服务租用800个图形处理器进行一个星期的计算就需要大约12万美元。这还不包括人力成本。运行一个人工智能项目可能意味着要聘请成本最高的人才数月甚至1年以上的时间。

数据:在许多情况下,项目的失败仅仅是因为标签数据的数量不足。有很多好的想法因为显然无法以可承受的价格获得训练数据而无法实现。

因此,我们取得了不错进步的商业领域主要是图像处理或文字与语音识别,而这些初创公司通常都没有利用谷歌、IBM、微软和其他公司通过应用程序接口(API)所提供的许多优秀的图像和语音模型。

通往未来人工智能的三条途径

如果你关注人工智能领域,就会看到我们已经利用卷积神经网络和递归神经网络取得了很多进展,但这些应用程序之上的进步才刚刚出现。下一轮进步将出自于生成式对抗网络(Generative Adversarial Net,GAN)和增强学习(Reinforcement Learning),并得到IBM超级计算机沃森(Watson)等问答机器(Question Answering Machine,QAM)的帮助。

关于我们如何推进人工智能的发展,最常见的描述版本是:利用我们已知的方法,即越来越复杂的深度神经网络,架构与目前常见的卷积神经网络和循环神经网络不同。只要让它们运行得更快。

其实,未来可能会完全不一样。我们可能看到构建人工智能未来的是三条途径,基于完全不同技术:

高性能计算(High Performance Computing,HPC)

神经形态计算(Neuromorphic Computing,NC)

量子计算(Quantum Computing,QC)

其中,高性能计算是我们目前关注的主要焦点。为打造加速深度学习的芯片,芯片制造商之间出现了一场激烈的竞争,竞争者甚至还包括一些非硬件制造商,如谷歌。另外两种计算:神经形态计算(又称为脉冲神经网络(spiking NN))和量子计算,似乎还需要几年时间才能实现。然而事实上,目前已经有商用的神经形态芯片,量子计算机也应用到机器学习中了。

我们可以将其比喻为冰山一角,或是管中窥豹。不管这两种新技术如何,神经形态计算和量子计算都会让人工智能的发展变得扑朔迷离,但这种不确定性是有益的。

高性能计算(HPC)

高性能计算最受关注。坚持我们已掌握的深度神经网络架构,只是使其更快、访问更容易。

这基本上意味着两件事:更好的通用环境,如谷歌的开源深度学习框架TensorFlow,以及在越来越大的数据中心对图形处理器和现场可编程门阵列(Field-Programmable Gate Array,FPGA)进行更好的利用。也许在不远的将来就会出现更加专业化的芯片。

人工智能的新商业模式是“开源”。2016年上半年,即距现在仅仅12个月之前,几乎每个人工智能巨头都开源了它的人工智能平台。它们都是竞争对手,在数据中心、云服务和人工智能知识产权领域投入了巨资。开源的策略很简单,用户(平台使用者)最多者将获得胜利。

英特尔、英伟达(Nvidia)等传统芯片制造商正在积极满足对图形处理器的新需求,而谷歌和微软等公司则在开拓全新的领域,通过开发专有芯片,提升自己的深度学习平台速度,增加吸引力。

借助于TensorFlow这个强大的通用解决方案和最新推出的专有芯片张量处理单元(TPU),谷歌给出了有力的一击。

微软一直在推广非专有的现场可编程门阵列,并刚刚发布了它的认知工具包(Cognitive Toolkit,CNTK)2.0升级版。它提供了一个Java应用程序接口,直接集成开源集群计算系统Spark。该认知工具包支持用Keras编写代码,本质上是TensorFlow的一个前端应用,能够帮助用户轻松完成从谷歌平台的迁出工作。据报道,认知工具包比TensorFlow更快、更准确,也提供了Python应用程序接口。

整合Spark仍是重要的驱动因素。雅虎已经将TensorFlow引入了Spark。Spark的主要商业供应商Databricks现在拥有自己的开源软件包来整合深度学习和Spark。

这里的关键驱动因素至少解决了三个发展障碍中的两个。这些进展将使编程变得更快、更简单,实现更可靠的良好结果,尤其是更快的芯片能缩短机器计算的原始时间。

与摩尔定律(Moore’s Law)的局限非常相似,问题在于这些进展能让我们走多远。它们在当前是可用的,也将继续向前发展。但它们是否足以让我们突破到生成式对抗网和增强学习?这种可能性是存在的,至少现在我们知道了如何使用这些深度学习架构。

神经形态计算(NC)或脉冲神经网络(SNN)

神经形态计算或脉冲神经网络正在成为构建强大人工智能的工具,它们的构造方式是基于对大脑实际工作方式的一些观察,这与我们迄今为止设计深度神经网络的方式截然不同。

首先,研究人员观察到,大脑中并非所有神经元每次都会被激活。神经元在链路上发出选择性信号,而数据似乎是以信号中的潜在脉冲方式进行编码。实际上,这些信号由一串脉冲组成,因此研究集中于信息是否是以一系列脉冲之间的振幅、频率、或延迟进行编码,或是三种方式都涉及。

在我们现有的深度神经网络中,每次所有神经元的激活方式都是根据相对简单的激活函数sigmoid或是应用得越来越多的ReLU。

在目前的深度学习神经网络中,神经形态计算已经表现出了一些显着的提升。

由于并非所有的“神经元”每次都会被激活,脉冲神经网络的单个神经元可以取代传统深度神经网络中的数百个神经元,在功率和芯片尺寸方面获得更好的表现。

早期的例子表明,它们只能使用无监督技术(未标记样本)从其所处的环境学习,很少有样本能够让它们快速学习。

神经形态计算可以从一种环境学习,然后将结论应用于另一个环境,通过这种方式来归纳它的环境。它可以记忆并进行归纳,这是一种真正具有突破性的能力。

它的能源效率更高,为设备的小型化奠定了基础。因此,改变这个基础架构可以解决当前深度学习面临的三个根本问题。最重要的是,我们现在就可以购买和使用神经形态脉冲神经网络系统。这不是在遥远的未来才会出现的技术。

位于美国加利福尼亚州的人工智能高科技公司BrainChip控股已经在拉斯维加斯最大的一家赌场推出了商业安防监控系统,并宣布即将交付其它应用程序。在拉斯维加斯,该系统的功能是通过监控来自标准监控摄像头的视频流,自动可视化地检测发牌员的错误。它能够通过观察完全掌握游戏规则。

BrainChip是在澳大利亚证券交易所(ASX:BRN)公开上市的公司,为其脉冲神经网络技术申请了重大知识产权专利保护。它推出了一系列博彩业监控产品,正在为其知识产权寻求许可协议。

当然,还有很多改进的空间,但脉冲神经网络是当前开发人工智能可选择的商业工具。

量子计算

关于量子计算,可能我们还没有认识到:

量子计算现在就是可用的,而且美国航空航天制造商洛克希德·马丁公司(Rockheed Martin)自2010年以来一直将其用于商业运营。其他几家公司也正在推出基于首次进入商业市场的D-Wave量子计算机的商业应用。近年来,D-Wave量子计算机的大小每年都会翻倍,并将保持这种增长势头。

2017年5月,IBM宣布推出商业量子计算机IBM Q。这是一种基于云端的订阅服务,毫无疑问,它将大大简化对这些昂贵又复杂的机器的访问。IBM表示,到目前为止,用户已经在IBM Q机器上进行了30万次实验。

作为拥有独立研究实体和学术机构的公司,谷歌和微软将在未来的两三年内发布自己的商用量子计算机。

D-Wave公司和一些独立研究人员已经引入了一些开源编程语言,以使得对这些设备的编程更加简单。

量子计算机极其擅长处理所有类型的优化问题,包括基于随机梯度下降解决方案的所有算法。它们容易模仿受限玻尔兹曼机(Restricted Boltzmann Machine)这种深度神经网络架构,如今正用于深度学习配置中像卷积神经网络那样进行图像分类工作。为区别存在于架构上的一些差异,我们将其命名为量子神经网络(QNN)。

根据谷歌的一份2015年研究报告,在D-Wave量子计算机与传统计算机的性能对比中,量子计算机的性能比传统台式电脑强108倍——使其速度提升了1亿倍。谷歌工程总监在公布这些结果的新闻发布会上表示:“D-Wave计算机在1秒钟内完成的工作需要传统计算机花费1万年时间才能完成。”

因此,量子代表了通向强大人工智能的第三条道路,它能够克服速度和成本的问题。

如何才能实现这一切?

事实上,神经形态计算和量子计算都在为深度学习和更先进的人工智能制定具有竞争力的路线图,使其变得更快、更简单。

时间线是首要因素。高性能计算如今已经成为现实,而且在刚刚推出的新型芯片的帮助下,其性能可能会在未来几年内持续提升。然而,随着量子计算和神经形态计算的进步,对新工厂和数据中心的巨额投资有可能中断。

目前已经出现了以谷歌TensorFlow和微软认知工具包CNTK为代表的深度学习平台,其他竞争对手无疑也将加入竞争,赢得最多的用户。随着量子计算和神经形态计算能力的得到推广,这些平台将进行调整,纳入这两种技术。

神经形态脉冲神经网络和量子计算现在都还只是出现在商业应用中。这两种计算都将为人工智能带来非凡的新能力。

脉冲神经网络有可能获得强大的自我学习能力,凭借较小的非标记训练数据集以及将知识从一个领域转移到另一个领域的能力,它将提高效率。

量子计算机将完全消除时间障碍,最终降低成本障碍,将解决所需时间从几个月降低到几分钟。重要的是,目前正在使用的学习类型被称为增强量子计算(Enhanced Quantum Computing),因为它以我们当前的深度学习算法为基础,提高了这些算法的性能。未来将出现全新的机器学习类型,以这些机器独有的不同功能为基础。

原文发布于微信公众号 - 人工智能快报(AI_News)

原文发表时间:2017-07-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

Distill:对标 arXiv 的机器学习开放平台横空出世,交互式期刊

【新智元导读】Google Brain,DeepMind,YC Research 等联合推出 Distill,一个新型开放性科学期刊平台,更设立初始奖金共125...

3375
来自专栏AI科技大本营的专栏

独家 | 日本机器学习领军人杉山将:为什么说弱监督学习是未来的热门?

前不久结束的第三届CCAI大会,日本人工智能和机器学习领域的新一代领军人物杉山将(Masashi Sugiyama)为我们带来了一场关于弱监督机器学习的精彩演讲...

3256
来自专栏CDA数据分析师

【扫盲】如何区分人工智能,机器学习和深度学习

我们都熟悉“人工智能”这一概念。毕竟,这个词常常在热门电影中出现,如《终结者》、《黑客帝国》、《机械姬》。 但最近你也可能常常听到其他术语,如“机器学习”和“深...

21110
来自专栏AI科技评论

UC 伯克利优化理论教授谈深度学习:为了可解释性,我们可能需要牺牲一些模型表现

AI 科技评论按:在人工智能的浪潮之下,以深度学习为首的机器学习方法迅速席卷了各个领域,给许多问题带来了全新的解决方案(当然同时也带来了新的问题等待解决)。 除...

34715
来自专栏大数据文摘

你应该知道的人工智能三大分类

2134
来自专栏机器之心

Science组织了一场尖锐的Reddit问答,Yann LeCun的回答还是那么耿直

35013
来自专栏SIGAI学习与实践平台

【AI就业面面观】如何选择适合自己的舞台? --写给即将参加校招的学弟学妹们

一年一度的校园招聘即将开始,各位学弟学妹们将面临继高考、读研/博之后的又一次重大的人生选择。第一份工作对于一个人职业生涯的一生都至关重要,如何选择适合自己的团队...

1084
来自专栏人工智能头条

聚焦CSDN技术主题月:深度学习框架的重构与思考专场回顾

1595
来自专栏PPV课数据科学社区

【应用】机器学习商业应用入门及七个实例

机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或...

3469
来自专栏PPV课数据科学社区

【观点】大数据与统计新思维

译著《大数据时代》( 英国 ViktorMayer-Schǒnberger,Kenneth Cukier 著) 和《驾驭大数据》( 美国 Bill Frank...

2897

扫码关注云+社区

领取腾讯云代金券