首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【报告】邓志东:人工智能前沿技术与产业发展趋势(53PPT)

【报告】邓志东:人工智能前沿技术与产业发展趋势(53PPT)

作者头像
新智元
发布2018-03-22 18:20:12
2.4K0
发布2018-03-22 18:20:12
举报
文章被收录于专栏:新智元新智元

【新智元导读】感谢清华大学计算机系教授邓志东向新智元投稿,他在《人工智能前沿技术与产业发展趋势》报告中指出,深度学习是人工智能的最新突破,一定要和大数据结合起来,做数据驱动下的感知智能产品研发,认知智能是前沿研究,支撑人工智能应用的硬件引擎也很重要。邓志东认为,弱人工智能的产业发展正处于爆发期,大家可以开始做工程化的应用产品开发了,私有大数据和深度学习芯片是制胜的关键和法宝。

【作者介绍】邓志东,清华大学计算机系教授,博士生导师。兼任中国自动化学会理事,中国自动化学会智能自动化专业委员会主任。

我报告的题目是《人工智能前沿技术与产业发展趋势》,主要涉及四个方面的内容:一个是深度学习——人工智能的最新突破;第二个是深度学习方法一定要和大数据结合起来,即大数据驱动下的感知智能产品研发;第三个是举一反三的认知智能前沿研究;最后一个是支撑人工智能应用的硬件引擎。

深度学习:人工智能的最新突破

我们首先来看一下深度学习这一人工智能的最新突破。刚好60年之前,人工智能有一个定义,即把人工智能视为研究与设计智能体,这个智能体要能感知环境,要能采取行动,并使自己成功的机会最大化。所以它包括三个方面的内容:一是感知,二是决策——决策也就是认知,三是行动。首先很明确,现在人工智能是通过学习,而不是编程来实现的。

人的大脑里面肯定没程序,我们一定是通过学习,来获得视、听觉的能力,还有记忆、推理、规划、决策、知识学习与思考等,这些认知能力也都是通过学习而非编程得到的。总之就是所谓的习而识之。

人工智能可以分类为感知智能、认知智能和创造性智能三种,这是我们的观点。感知智能,简单说就是对人的直觉(intuition)能力的模拟,这主要涉及人的视觉、听觉、触觉等,这属于感知部分。还有一部分是认知智能,即对人类深思熟虑行为的模拟,比如人的推理、规划、决策、知识学习。另外就是创造性智能,包括人的灵感和顿悟,这一块显然还没有开始这方面的研究。

人工智能是一个影响面极广的共性科学问题,同时也是一个战略性前沿技术。它的突破从2006年开始,可以说人工神经网络由此进入了第三次复兴。

1970年、2000年前后人工神经网络置身寒冬,在人工智能领域中是被边缘化的。2012年的时候因为和大数据结合,又考虑了GPU硬件加速这个计算引擎,所以真正取得了全球的瞩目。2013年开始,国际科技巨头高强度深度介入,这是人工神经网络前两次研究热潮中从没发生过的。

现在大家几乎天天都能看到各种人工智能的新闻,许多IT巨头都决心用人工智能重塑企业的产品线,实现企业产品结构的转型升级。未来2到5年,人工智能还将给我们这个世界带来更多深刻的改变和惊喜。

人工神经网络本身可看成是对生物神经系统的模拟或者近似。方法有两种,一个是对外部输入输出的模拟,一个是对内部机制的模拟。它的发展里程可归结为“三起两落”。最早于1943年就出现了MP模型,目前的大部分神经网络都还在使用这种人工神经元模型。1957年Rosenblatt提出了Perceptron(感知机),这是第一种人工神经网络,因此Rosenblatt也被称之为“人工神经网络之父”。所以说,人工神经网络至今只有59年历史,而人工智能是60年历程。

这后面还有一系列里程碑式的结果,比如20世纪80年代出现的掀起第二次人工神经网络研究热潮的Hopfield网络和BP网络。30年前,在20世纪80年代中后期、90年代初期,人工神经网络也如同现在一样,那个时候非常热,也有无限美好的憧憬。

当时各行各业都去做神经网络,不过与现在不太一样,都仅限于学术圈和研究机构,企业参与很少。后来发现这些神经网络并非想象那样,能力不行,做不了多少事情,因此神经网络研究一下又跌入严冬。

现在这一轮复兴,跨国企业,比如目前做得比较好的Google(DeepMind、Brain)、Facebook、微软、IBM Watson、Amazon、百度等,全都进来了。还有一个趋势比较明显,就是企业逐渐成为人工智能研究的第一梯队,产业与学术研究的距离不断缩短,国内外都这样,非常明显。我举一个例子,现在许多公认的顶级国际会议论文都出自于Google、Facebook、微软这样的跨国企业,而并非高校和政府科研机构。

除了企业以外,还有两大国际学术研究中心,一个是以Geoff Hinton教授为领军人物的加拿大多伦多大学,另一个是以Yann LeCun教授为领军人物的纽约大学。事实上,人工智能领域有一个以Hinton为首的人工神经网络学派,主要包括Hinton、LeCun和Bengio,是全球深度学习研究的三大灵魂人物。

具有完全监督学习能力的深度卷积神经网络发展至今,Yann LeCun居功甚伟。1987年LeCun取得博士学位,曾是Hinton的博士后,在AT&T贝尔实验室工作了14年,2013年12月9日受聘于Facebook,创建了著名的Facebook人工智能研究院(FAIR)。深度神经网络主要就是指深度卷积神经网络(CNN),这是目前在某些垂直细分领域惟一能够达到人类水平的神经网络计算模型,其他如深度信念网络(DBN)和深度自动编码器,都达不到这样的高水平。

卷积神经网络的最初版本实际是由一个日本人福岛邦彦提出来的,当时叫认知机与神经认知机,20世纪70年代就有这个模型,目前卷积神经网络中的卷积、池化、感受野、ReLU等概念与激发函数在这些模型中就有了。1989年LeCun将误差反向传播引入神经认知机,使后者获得了监督学习能力。1995年和Bengio将其命名为卷积神经网络,2006年叫深度神经网络。他还创建了手写体数字识别数据集MNIST,2006年做到了0.39%的错误识别率,性能超过传统计算机视觉方法很多。

深度CNN具有强大的分层特征表达能力,而且特征是自动学习得到的,不是人工设计的,包括底层、中层、高层特征,而且通过感受野的提高可同时获得局部和全局特征。就某个特定的应用场景,结合大数据和人工智能硬件引擎,既然它的分类识别精度能够达到人类的水平,自然就可以进行工程产品的开发了。

大数据下驱动下感知智能产品研发

让我们来看看大数据驱动下感知智能产品的研发。

深度CNN标志性的突破出现在2012年,Hinton带领他的两位博士生,在2012年的ILSVRC 比赛中获得了冠军。ILSVRC 比赛相当于什么呢?可以理解为计算机视觉物体识别中的“世界杯足球赛”,每年都举行。其训练与测试数据集ImageNet有1500万幅图片,涉及22000种物体的分类(2011年秋版本),如猫、狗、大象等等。他们当时使用了2块GPU加速,训练了一周,取得了15.3%的Top-5错误率。而传统视觉方法的最好结果是26.2%,2016年这个结果已经下降到3.08%,比人类的5.1%好了不少。创新之处就是将深度卷积神经网络与大数据(1500万幅图片)和GPU Cuda并行编程结合起来了。可以说由此揭开了深度学习在计算机视觉、语音识别和自然语言理解中大规模研究的序幕。

2013年开始产业界真正高强度深度介入。很多标志性的事件,比如说,2013年3月Hinton受聘于Google(包括Google收购其3人初创企业DNNresearch)。2013年12月9日LeCun获邀受聘于Facebook,创建并执掌Facebook的人工智能研究院。2014年1月Google以5亿多美元收购Demis Hassabis的人工智能创业公司DeepMind,2年后该公司推出了引起全社会高度关注的AlphaGo。2014年5月吴恩达受聘于百度,担任百度首席科学家等。

大数据驱动下感知智能产业的框架结构:一是应用层,也就是人工智能+细分领域,比如说无人驾驶、机器视觉或者语音识别;二是技术层,涉及模型/算法,开源代码;三是基础层,就是大数据,计算引擎/深度学习芯片这两点支撑。深度学习的市场图谱,包括四个方面:技术巨头,开源代码、大学研究,还有半导体公司——做芯片的,主要是做计算引擎。

什么是大数据?我就说一个观点。我们说大数据通常体量巨大,一般不能用常规的统计学与平稳随机过程方法来处理,因为已经不满足i.i.d独立同分布假设了。而且通常只关注整体的关联关系,而不是因果关系。从这个角度来说,现在很多所谓的大数据分析都是炒概念,其实就是常规的统计分析或者说数据挖掘,不是真正含义上的大数据分析。

真正意义上的大数据分析是什么呢?四个V特别重要,数据体量巨大,从TB级别上升到PB级别;数据类型众多;价值密度低,但商业价值高,也就是数据中大量都是垃圾,垃圾里面找金矿,很少很少,去找这个东西,这个是不能用传统方法处理的,因为大部分是非结构化和半结构化数据。事实上,结构化数据用传统数据挖掘手段就可以处理,现在很多人其实干的是这件事情。

对深度学习来说有很多开源代码框架和工具集,比如谷歌的TensorFlow,加州伯克利的Caffe,Bengio的Theano,Facebook的Torch,微软的CNTK,都开源了,目的就是为了形成一个人工智能产业生态。

ImageNet有1500多万张照片,还有Caltech-101,Caltech-256,CIFAR-10,CIFAR-100,MNIST,US-PS,SVHN,还有人脸识别库LFW等等,这些都是公开的,而且公开的数据集也逐渐增多,但它们是属于研究性质的。

真正有价值的私有大数据,其重要性如同原油一样属于战略资源,被跨国企业拥有和贪婪追求,这个重要性特别大,国内外的差距在不断加大。

我们知道,深度卷积神经网络采集与喂食的大数据越多,越能获得更好的直觉模拟。现在需要更大的数据,这个模型真正的进展,数据越多越好,这个是以前完全不能想象的事情。举个例子,Google的无人驾驶汽车它的总行驶里程已超过241万km,还有特斯拉六个月就采集了超过7500万km的大数据,每天都在大量采集数据。

对算法公司来讲,无论是采用以前的传统计算机视觉还是现在的深度学习方法,企业最大的优势之一,就是它拥有的大数据优势,例如做ADAS产品的以色列标杆企业Mobileye。既然要做大数据,就要对它进行清洗和标签。为此一定要选择一个特定的应用场景,或者说一定要做一个非常细的划分,垂直领域里面还要有细分领域,这样才有可能得到各种工况、各种情形下的完整大数据,才可以进行标签等等。

在移动互联网时代,大数据的采集可以采用“众集”的方法,标签可以采取“众包”的方法,比如说现在Google有54辆车,已经开始考虑到大数据中潮湿情况怎么办,多雨情况怎么办,还有高温、多尘等等,商业化进程不断推进。

目前使用的完全监督学习的深度卷积神经网络有一个缺点,要求配合使用大数据。换句话说,要认识飞机,必须将全世界所有飞机的照片都给他看,包括不同气候条件下,不同时间段,不同地方与背景、姿态等等,都要给它看;做无人驾驶则必须要考虑到各种天气、各种道路、各种时间段的大数据等等。这是现在这个方法的缺点。人可不是这么干的。人要认识一个东西很简单,要他看两、三架飞机他就把所有的飞机都认得了。这就是小样本学习或者说是“举一反三”。

在大数据和计算引擎的驱动下,基于深度学习方法的视觉物体识别能力,在许多Benchmark评测中,正在达到或超过人类的水平,语音识别再过2-5年也能达到人的水平,文本理解也比过去飞速进步了许多,许多确实可以进行工程产品的开发了。

我们举几个例子,2012年以后深度学习成为视觉物体识别的主流方法,2014年以来,又成为人脸识别的主流方法;同时大数据成为性能提升的关键。在ILSVRC 比赛中,从2013年开始就再也没有传统机器视觉方法了,全部是深度学习方法;就这个问题,人的水平是5.1%,微软去年初的4.94%第一次超过人类的水平,去年底该比赛的冠军也是微软,错误率降低为3.57%,目前全世界最好的记录是Google的3.08%,都是企业取得的成绩,这种趋势非常明显,因为这些科技巨头才拥有高效的研发团队和计算资源。

人脸识别也是这么一个故事。针对LFM人脸识别数据集,深度CNN超过了人类的识别能力,中国香港中文大学的汤晓鸥团队第一次超过了人类97.53%的正确率。百度现在做的最好,99.77%,第二名是腾讯的优图,99.65%,第三是谷歌的99.63%,已经超过人不少了。

至于基于深度学习的视觉物体检测与定位,目前也可以做到像素水平的分割。例如,这是长颈鹿、斑马,进行像素水平的物体分割,再分类识别;分类做的很好了,比人做的还好。

还有一个标志性结果就是把深度卷积神经网络与再励学习结合起来,应用于神经动态规划问题。AlphaGo学术上就叫神经动态规划问题,这个问题很多年以前就有研究。现在唯一的区别就是有了大数据,有了深度卷积神经网络,所以叫深度再励学习。其实在AlphaGo之前,在去年2月份,Google的DeepMind就有了深度再励学习的结果,发表在《自然》杂志上,只不过没有引起那么大的社会关注。利用深度再励学习发展的深度Q-网络,用于玩Atari像素游戏。49种游戏里面,不是靠编程,而是靠学习的方法去建立深度Q-网络;这49种游戏,包括太空入侵者、功夫大师等等,学49种游戏,一个职业选手在那玩,它就在边上学,看屏幕上的像素和评分,输出是一个虚拟的游戏操纵杆;看像素怎么运动,打多少分?学完以后49种游戏里面,29种超过职业选手水平;这条线是人类水平,假设是100分“智商”,计算机的评分最高达到2500多,比人还玩得好很多,它完全通过学习的方法,这是与IBM深蓝不同的。AlphaGo这个也是发表在《自然》上,也是封面论文。这个事情我就不说了,因为全社会都在热烈讨论。把人类战胜了,而且以后看起来人类也很难再战胜它,因为它可以学习,每天都在学,很可怕。

总之,深度卷积神经网络在量级上开始与生物神经系统,比如说皮层上的功能柱接近了。已经有几十万个神经元,训练样本几亿、几十亿,未来可能还能达到上百亿的大数据,这个需要很强的计算硬件支撑。神经网络的突触连接权最多已达到10亿,微软的ResNet网络,深度为152层,甚至可以做到1000层;2万多种物体都可以识别出来,狗、猫都能认出来,叫出名字来,以后可以有更多种类的物体可以被识别,实现更宽垂直领域的通用人工智能。

现在看来,神经网络的发展历经“三起两落”,1970年、2000年前后是寒冬,什么事都做不了,在人工智能领域中被边缘化。现在一枝独秀,应该说主要是时代进步了,因为互联网时代我们才有可能采集大数据,然后采用“众包”的方法做标签。另外就是由于游戏的超速发展出现了强有力的GPU,采用GPU分布式集群系统后,才能为深度学习提供超强的计算硬件引擎。

深度卷积神经网络为什么那么好呢?因为它首先是一种仿生模型。但是必须指出,深度卷积神经网络,现在的方法是完全监督学习的,这个跟人脑是不相同的。人的大脑视觉皮层有两个通路,一个是腹侧通路管分类的,一个背侧通路是管定位的,应该说它们的学习是半监督的,LGN、V1等可塑性几乎没有。

另外,美国MIT麦戈文脑科学研究所用电极阵列完成的猕猴高级视皮层实验表明,生物系统的V4、IT皮层的特征映射图,与深度卷积神经网络非常接近,令人叹为观止。总之,作为一种感知智能模型,深度卷积神经网络迄今最好地模拟了生物视觉通路,在大数据和深度学习芯片的强力支撑下,具有强大的自动分层特征学习能力,在上述列举的细分领域超过了人类的识别能力。大数据下的感知智能的发展为环境理解与自然人机交流、人机协作和人机共融的进步,带来了历史性的机遇与挑战。

“大数据+深度CNN”,这是实实在在的进步,确实可以鼓吹大家着手进行以完全监督深度CNN为核心的人工智能产品开发了。它具有的达到人类水平的分类识别能力,前面已经说了很多例子了,比如谷歌DeepMind的AlphaGo与DQN,谷歌ImageNet,IBM Watson,微软同声传译,百度IDL集成模型(人脸识别)和Deep Speech 2(语音识别)等等,都见证了深度CNN的强大能力,极有可能催生一场弱人工智能革命,重塑很多产业。

AI成为目前全球最热的投资风口,像无人驾驶、自动驾驶、消费类机器人、VR/AR、认知商业、聊天机器人、智能个人助理等等。总而言之,人工智能技术与产业开始扮演着基础性、关键性和前沿性的核心角色,但我们叫“弱人工智能+”,可以加很多东西进去。“弱”是因为必须考虑特定的应用场景,人工智能离全面达到人类的水平还差得远。

认知智能前沿研究

第三个讲一下认知智能前沿研究。这可能意义更大,但目前不适合进行工程应用。我们前面说过必须要用大数据把所有飞机给深度监督学习模型看,它才会认识飞机。我们人是小样本学习或者叫“举一反三”,看到两三辆汽车就知道这是什么东西了。

“大数据+深度CNN”的感知智能的方法,我们叫“举三反一”,或者叫数据驱动的方法。但是感知智能的进步,我觉得这个是实现智能模拟的一个基石。我们人为什么会有智能呢?我们一张开眼,眼前的一切物体都分类了,没有这种“模式”识别能力就谈不上进一步的认知智能。

以前的人工智能研究就卡在这里,这个叫语义鸿沟,一直跨不过去。感知问题没突破,数据到语义之间没有突破,只是在符号层次研究逻辑、推理等“专家系统”。从今以后,我们可以在这个基础之上,在新的起点上再做语义水平的认知智能研究了,所以现在相关的研究非常之多,也是非常激动人心的。

不过需要提醒的是,现在还是前沿研究阶段,未到做产品研发阶段。例如高考人工智能机器人、智能金融、智能医疗、智能新闻写作等等。还有IBM的沃森医生等认知商业。还有想法向量,更多种类的物体识别,比如说这是狗,各种各样的狗我都能认识,哪怕有遮挡,姿态发生变化,不同背景等。然后再把各种“概念”或想法向量联系起来,也是通过学习的方法进行时空递归,进行长短期记忆和与记忆的交互式学习等,不是通过编程。再加上注意力机制、记忆整合、通道整合等,还包括知识蒸馏、知识迁移。现在比较火的还有长短期记忆网络(LSTM),这个网络是端到端的序列学习,它里面也有非常好的模拟,例如具有学习能力的神经元门控机制的模拟。

学习方法有三种:监督学习、再励学习和无监督学习。再励学习(reinforcement learning)也称强化学习或称增强学习,“再励”这个术语最初来自于心理学。你做出决策后跟环境交互,最后的结局你失败了或成功了,失败就要受惩罚,成功就要受奖励。人和动物的局部行为学习方式,就是这样的。这方面的研究很早就有了。

现在看来,深度卷积神经网和再励学习,这两个是成功的,它们的结合更成功。深度监督学习,大数据一定要有标签,选定细分领域这是有可能的,如果领域选大之后很难做到。AlphaGo有深度监督学习,也有深度再励学习,就是自己跟自己对弈学习,自己跟环境交互得到惩罚或者奖励。这样通过与环境反复的交互,重演“长记性”。

最重要的是深度无监督学习,这个现在还没有成功,这个也是大家最感兴趣的,更像人类“举一反三”的学习方式。如果这个突破以后,我们也许就不需要那么多的大数据了。大数据成本太高,而且很多情况下得不到。我们很多技巧性或过程性的东西靠经验或与记忆进行交互式学习,这种经验学习就是深度无监督学习研究的内容。

深度无监督学习是人工智能的“黑科技”。一个人看几辆火车,你从语义上告诉他这个东西名字叫火车,他就知道了,他就马上联系起来,全世界的火车他都认识了。实际上,你不会告诉他火车是什么什么物理特性,是什么什么外部描述,你告诉他火车这个“名称”就行了,所以它首先要进行无监督学习,然后才是跟语义结合起来,从而轻松地获得技巧和常识。

不幸的是,这些研究结果都没有像深度卷积神经网络一样,具有一定的脑科学基础。

深度无监督学习、深度递归神经网络,包括长短期记忆网络(LSTM),在脑科学上都没有理论与实验依据,所以很难说短时间内会出现强人工智能。我想一定是这样的趋势,先做弱人工智能,做图象识别、语音识别或者文本理解,再逐步把垂直领域扩大,变成一个通用人工智能,再扩大到全方位,此时什么能力都比人强了,它可以看懂、听懂,同时还可以替你做决策,替你做情感分析与交流,完全代替人,这种强人工智能,现在看来相当长一段时间之内完全不太可能实现。

另外,关于人工智能是否能让机器拥有意识?其实人脑是有奖赏机制或有这样的功能模块的。你做一件事情感到很愉悦、很幸福、很成功,这就是一个评价机制,这部分我就不展开了。总之,大脑里肯定是没有编程、没有符号、没有灵魂的,神经信息的载体是神经元的发放序列,同时它是通过学习而不是编程获得的感知与认知能力。

支撑人工智能应用的硬件引擎

最后再介绍一下人工智能芯片。前面已反复指出,大数据和人工智能芯片是两个基础点,可以说支撑了人工智能技术与产业的迅猛发展。前面的报告介绍了Hadoop、Spark和Petuum等高性能分布式CPU/GPU集群系统的研究。

作为支撑人工智能应用的硬件引擎,我想强调如下三个方面的应用:一是基于超级GPU或者TPU集群的离线训练,这是必不可少的。比如说训练1000个小时、2000个小时,用了这个超算系统后10分钟可能就解决问题了,这是一定要有的,但这块主要依赖于GPU和TPU,功耗太高、成本太贵。例如2000块GPU大致需要1个亿的投入。二是基于云平台的在线应用,这可以用FPGA来做,既可以降低成本,也可以大幅减少功耗。三是直接进行终端应用。

在超级GPU或者TPU集群服务器方面,英伟达(Nvdia)的深度学习芯片Tesla P100,具有150亿个晶体管,运算速度达到21.2万亿次,研发预算超过20亿美元。利用P100构建的超级计算机DGX-1速度达到170万亿次。因为卷积神经网络本质上是张量(Tensor)处理,Google数据中心研发的张量处理器(TPU),是它的秘密武器。它对CPU计算能力要求不高,是专门为深度学习定制的ASIC。无论是GPU还是TPU,我们中国企业的机会不多,技术门槛太高。实际上,GPU或TPU的成本太贵,功耗太高。我们的机会就在FPGA上面,也就是进行基于FPGA的深度学习芯片(DPU)的研发。相对于GPU。不但灵活度更高,成本很低,而且其能耗比可提升至少1000倍。对于基于云平台的在线应用或者移动端应用,拿FPGA来做,它的成本、功耗、体积都有很大的优势,这或许是我们惟一能够做的事情。

还有一类功耗更低,且更有前瞻性的是类脑芯片。包括两种类型:一是利用传统CMOS工艺进行生物突触模拟,就是用几个晶体管去模拟突触连接权;二是直接使用新型忆阻器件去模拟生物突触。IBM的TrueNorth和高通的Zeroth是前一类神经形态芯片的典型代表。

IBM的TrueNorth,2014年8月发表在《科学》杂志上。它有什么特点呢?这个芯片里面有100万个发放神经元,模拟了2.56亿突触连接。人脑的神经元就是发放的,可以理解为很多个脉冲。以前觉得发放神经元没有什么用,现在发现由它组成的神经网络,功耗很低,TrueNorth类脑芯片才只有63个毫瓦!我们知道人脑的全部功耗只有区区20瓦,但皮层神经元的个数却有140亿。IBM最近还有一个实验,它使用48块TrueNorth芯片构建了一个小型数字化鼠脑,相当于有4800万个发放神经元,这个数字化的鼠脑可以进行深度学习,可以识别图片和语音,也可理解一些自然语言,还可通过在线增量学习以适应新环境。

除此之外,还有一个更新的、比IBM和高通类脑芯片功耗更低的基于忆阻器的类脑芯片。忆阻器也叫记忆电阻,是硬件模拟生物突触的理想方式。简单说,忆阻器随流经的电荷的变化其阻值就会发生变化,而且在断流时还具有阻值记忆功能。1971年提出忆阻器设想,2008年的时候惠普用纳米薄膜把它制备成功了。最新的结果是2015年加州大学等研制了一款基于Crossbars的忆阻类脑芯片,发表在2015年5月的《自然》杂志上。它的特点是集成度更高,读写速度更快,尤其是功耗会更低更低。当然前面和后面这两类人工智能芯片,技术门槛特别高,我们能做的事情可能不多。

最后是三句话的结语。第一,弱人工智能的产业发展正处于爆发期,大家可以开始做工程化的应用产品开发了,深度卷积神经网络确实是非常大的进步,尤其是得到大数据和超强计算能力的支撑。第二,即使是深度卷积神经网络的一点点进步,也会给人类社会进步带来巨大的变革。第三,私有大数据和深度学习芯片是制胜的关键和法宝。

【作者介绍】邓志东,1991年获哈工大博士学位。2000年起担任清华大学计算机系教授,博士生导师。兼任中国自动化学会理事,中国自动化学会智能自动化专业委员会主任。曾任国家863计划智能机器人主题专家组组长助理(1998-2001)。目前的研究方向:人工智能、深度神经网络、计算神经科学,先进机器人、无人驾驶汽车等。曾从事的研究领域:虚拟现实(1998-2001)、无线传感器网络(2001-2009)、计算生物学(2002-2010)。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-07-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
大数据
全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档