AI:真实的希望与隐忧

姚  星  腾讯集团副总裁、腾讯AI Lab负责人

  过去的二十年是信息高速发展的二十年,它经过了几个发展阶段。从发展的方向上来讲,应该是在上世纪九十年代初期,中国第一次连上互联网,进入到互联网这个大家庭当中。

  但是由于当时网络速度的问题,大部分互联网应用还是只限于沟通,沟通解决了很多问题,人不再需要面对面,或者通过传统的书信方式进行沟通。不论在天涯海角,只要能连上互联网,人们总是可以接触到一些消息。

  随着整个设备传输的发展、网吧的兴起,网络速度大幅提升,这时候人们对互联网的诉求不再仅仅是消息的传递和沟通,更多的是分享。MSN、Facebook、QQ空间等都是基于分享,人人为我,我为人人,那时候有很多东西都是通过互联网来分享的。

  随着移动时代的发展,特别是智能手机和智能终端的发展,你会发现,最近这五年以来,移动互联网高速发展,人们不再局限在特定的时间和特定的地方进行互联网连接。以前大家都是在网吧或者工作的地方,现在大家通过手机时时刻刻都能连到互联网,所以整个过往的二十年是随着设备的发展、产业的发展、信息产业的发展而演进的。

  伴随着过往二十年发展,腾讯在过去二十年里做了什么呢?实际上在每一个时代,腾讯都有一款重量级的产品。

  在最早的沟通时代,上世纪九十年代,我们有了QQ。QQ目前是世界上同时在线人数最多的应用,已经达到两亿人同时在线;在2000年初的时候,QQ空间诞生,目前日上传照片数超过五亿张,这个规模如果跟世界上最大的社交网络Facebook相比,差不多是同一个量级。

  然后在移动互联网时代,大家现在都知道的一个产品就是微信,这款产品不光是简单的应用,还是一个超级的APP,它不仅解决了沟通问题,还解决了社交、分享的问题,还包括线下支付、线下打车,甚至医院挂号看病、交水电费等等一系列功能都在这一个软件上面实现。实际上,腾讯的这三款产品在世界上来讲都是领先的。

  从整个发展史来看,我们可以看出过往的发展史是从窄带到宽带,到移动互联网时代,它犹如生物进化一样,从早期的单细胞到多细胞到最后的智能。今年这个智能会更加的广义了,不仅仅是智能终端,大家更多讨论的智能是AI。

  2016年正好是AI发展六十周年,所以在去年AI也爆发起来。腾讯是很低调的。很多人问我腾讯有没有做AI?怎么从来没有向外宣传呢?实际上腾讯有自己的AI部门,从2016年4月份开始,腾讯成立了自己的部门,目前已经有30多个科学家,90%以上的人都是博士学历以上,绝大多数人都是海外回来。他们都是从世界最顶级学府引进的人才,包括斯坦福、加州伯克利、康奈尔、麻省理工、哥伦比亚大学等等这些学校。

  目前在腾讯,我们已经组织了一个AI团队,而且规模还在扩张。腾讯的AI可能不像其它公司的AI让人那么了解,比如说谷歌的AI,很多人都知道他们在做围棋,包括他们出来很多的产品,比如他们的google brain等等;包括像百度,他们有无人车,有度秘等一些产品;包括Facebook,它做了很多图像方面的东西。但腾讯的AI一直没有对外宣传,今天我也跟大家分享一下,腾讯在AI上面的一些考虑。

  实际上腾讯的AI主要是基于四个垂直领域,计算机视觉、语音识别、自然语言处理和机器学习,这四个领域基本上涵盖了当今整个AI基础研究领域的方方面面,这是四个基础的研究领域。

  然后我们还提出了四个专属的研究方向,这是结合整个腾讯公司来进行的。我们提出了内容AI,比如个性化推荐,有基于内容类的和搜索类的。另外还有我们的社交,包括刚刚说的QQ空间,它也是一个社交平台,所以在社交AI上面我们会面向于社交的能力去提供AI能力,包括聊天机器人,包括智能助手,都会在这个方向上去研究。

  另外一个方向,我觉得是跟全世界其他所有的公司不太一样的一个AI方向,大家可能会问我,也有做围棋的AI,但是它只是一个简单的围棋,它不会有太多的游戏,但对于腾讯来讲,我们会在游戏里面引入更多AI能力,实际上这个想像空间是非常大的。大家试想一下,会不会有一天,LOL也会有个AI可以参加这种世界竞赛,跟人对打。

  大家知道现在腾讯有一款很受欢迎的手游叫做“王者荣耀”,如果把这里面的能力提升,是不是可玩性、乐趣性就会更多,对于腾讯来说这一块也是很关注的。除此之外我们还会提供很多工具类的AI,这里面我们就会把这种能力开放出来,包括人脸识别的能力、语音识别的能力、自然语言处理的能力等等,还包括我们在学习平台的能力。所以说从目前来讲,整个腾讯研究AI的基础领域是四个,然后我们的方向也是四个。

  刚刚是讲腾讯在过往二十年产业发展中的情况,以及我们在AI上面的布局和考虑,更多的是AI的希望,现在我来讲一下AI方面的隐忧是什么。

  AI不是一个新的概念,发展了六十年,在这六十年里AI一直有很多的起起落落,而去年突然一下大爆发了,一直延续到现在。像从1956年的会议开始,AI这个名词就开始出现,中间它经过了很多起起落落,比较有名的,我相信大家知道,九十年代的IBM打败了卡斯帕罗夫。IBM也有一款基于知识图谱的知识问答类的机器人,在危险边缘的挑战赛里面取得了冠军。大家可能记得最清楚的一件事情,还是去年AlphaGo打败了世界冠军韩国的李世石,表明在围棋这个最古老、最复杂的游戏上面,AlphaGo的智能已经超越了人类。

  当然整个发展史里面也有很多技术方面的演进,比较有代表性的就是2006年,在机器学习上面真实的突破,带来了整个AI在发展方面极速的提升。为什么这一次AI会让大家有这么大的期待,或者有这么大的关注呢?我觉得最主要的原因是这一次AI的底层算法,在深度学习上面进行了有效突破。

  这次AI的发展从2012年开始,整个学习的方法,不像传统的方法。就跟早期的人类想学飞翔一样,原来的方法是粘上羽毛,像鸟一样,真正的飞翔最后的原理是要通过空气动力学去解决飞翔的原理,这就是深度学习的一个思想。之所以现在能在很多方面、很多应用上面进行突破,实际上本身是掌握了它内在的这种方法,而不是表面的方法,所以在这个方面,方法的研究我觉得是重要的。

  第二个是模型上的提升。AI的发展有六十年,机器学习在八九十年代也非常火,当时有一个算法叫SVM,它已经是非常厉害的一种机器学习的算法。当它达到几亿、几十亿规模的时候,实际上它的计算能力就会急剧下降,做一个非常复杂的复合函数去描述这种方式,如果它通过Deep多层连接,它达到一个指数层倍的关系,描述十亿可能我们只需要三层一千个节点的连接,就能构建十亿个特征出来。所以从本身来讲,模型上的提升也是深度学习的突破。

  另外在数学上面,就是BP问题的解决,反向传播的问题。在数学理论上进行反向传播是一个非常复杂的问题,在神经网络里面当一个东西在传递很多层网络的时候,我们知道当它往回反向收敛的时候,我们都要去逼近最优值,但是当层数太多的时候,会发生一个梯度消失或者梯度膨胀的问题,通过一些数学理论,可以很好解决这种问题。所以在数学理论上面,建立了一个比较好的基础。

  正因为这三方面的优势,使得在AI的浪潮里面,机器学习才会如此火,而且我坚信这次浪潮会持续很久。在1990年到2000年左右,整个传统的浅层机器学习的学习方法有一个下降过程,但是2000-2010年这十年,在方法和模型方面可能都没有太大的发展,但突然在2012年左右,微软研究院最开始在工业界把机器学习用到语音识别里面去,取得了极大性的突破,之后又进行提升,所以整个过程机器学习的能力的确是在过往的五年当中,发展非常快的。

  讲了很多机器学习的方面,刚刚说的快速发展,它的方法很好,模型也很好,数学算法也在突破,但是现状是什么呢?就像刚刚我说的,今天我谈的话题是AI期待很大,期待太大了,为什么会这么讲?作为一个从业者,我认为AI还是有很多的东西,可能需要提出来,还有很多的局限性。

  第一个就是本身深入学习的能力,就是我们说的AI跟人去相比,它有多大的差距。实际上我们发现现在所有的机器学习的方法,不管这个方法提出来有多么的新,它的学习过程都是要从头开始学,要把数据重新进行一次训练的过程。但这跟人的学习能力相比确实有很大的差距,人有很多的智能是与生俱来的,就像小孩刚出生,不需要多长时间就知道这个世界是三维的,当你把一个东西放在电视机的后面,他知道在电视机后面有一个东西,这些能力是与生俱来的,这个是跟生物的进化是相关的。所以灵长类的动物跟单细胞动物相比,肯定是有与生俱来的能力。但是目前深度学习的方法很遗憾,我们不管提出了多么优秀的模型,可能都要重新开始学,这跟人的学习能力相比,是一个非常大的缺陷。

  第二个就是我们不管有多么好的学习能力,不管有多么好的神经网络模型,它本质上的问题还是通过算力,计算能力去解决大数据,更多的大数据,更大的计算能力去做更好的融合的过程。过往是整个硬件发展,是顺从了摩尔定律发展,发展非常之快,但是在未来的更多的参数下面,我们还有没有这种能力达到计算的效果,这要打上很大的问号。

  比如说2006年提出来的Alexnet网络模型,到剑桥大学提出来的VGGnet,再到后面谷歌提出来的Googlenet,再到2015年神经网络Resnet,每一次新模型的提出都是把模型的层数加入更多,神经单元更复杂,训练结果更长,得出来的结果也最优,但是本身这种方法是不是还能像原来的方法一样可持续,这也要打一个很大的问号。另外,如果我们要解决认知的问题,那差距就更大了。人的语言是一个序列问题,这个语言序列问题如果要计算的话,这个算力是无论如何解决不了的。人可以很容易在对话当中,回溯到一个很长时间语句的某个片段的关键词里面,但是在机器里面它却不一定做到这个,虽然我们也在最早的模型形成到现在长短记忆单元的模型,到后面的带有注意力的模型,但是总体来讲,这种模型的演进跟人相比都还是非常复杂的,是远不如人的。比如说那天我看到三个人在对话,两个人在聊,中间聊到去哪儿吃饭,突然有人问太阳呢?聊天者知道这是描述太阳队的,因为前面很早之前有人在聊,湖人跟快船的话题,突然来个太阳大家就知道,但是机器基本上是没办法识别的。“夏天能穿多少穿多少,冬天能穿多少穿多少”,两句基本上一样,但是前面去描述,把少给突出来了,后面把冬天多显出来。

  第二个例子是语音识别,我看了一个笑话,讲的是语音识别很难搞,“您好,方便面试吗?”我在重复这句话的时候,我都不知道自己在讲方便面试吗,还是方便面是吗,的确这是一个非常难的问题。但是人的理念里有很多东西,在进行反问的时候,会慢慢把这个东西带出来。所以说,目前的AI是在很多的约束条件的情况下达到人脸识别的。在图像方面,正脸不能用侧脸去做,完全侧脸是不可能识别的,或者说它戴帽子可能也比较难。此外,语音识别也是在很安静的情况下,比如噪音比较小,没有风噪、车噪的问题,可能机器在听语音识别的时候会识别出来一个比较好的效果。但跟人相比,这完全不是问题,包括多人的问题、语音跟踪的问题,所以我刚刚说的AI的感知能力,它跟人基本的能力相比还有很大差距,更别说它在认知方面,在NLP这种语意方面。

  所以在整个AI上面,我觉得是我们期待太高了,我们要回归现实,AI现在的能力刚刚起来,但是这个趋势很好。未来AI发展方向是什么呢?我觉得AI跟人,包括机器学习跟人的能力上面有些差距,怎么去补齐差距呢?第一个我觉得跟人相比要创造,我们现在所有都是基于大数据,这些数据从何而来,这是非常重要的。这个数据现在是传统的获得,但更多的数据是本身能创造出来,包括AlphaGo已经在验证这样的问题,通过增强学习去产生人类从未下过的棋,这是一种创造数据的能力,不一定是人创造了这些。通过创造数据的能力产生更多的数据,去把这些东西更多地穷尽出来,我觉得在未来,如果在这方面发展的话,在增强学习方面,我们要进行更多的发展和突破。

  第二个就是举一反三。什么叫举一反三,AlphaGo下围棋能赢世界冠军,但是它如果改下其他的棋,它的下棋方法就不行了。因为它不会进行推导。当我们验证大数据和一个非常好的效果的时候,我们数据量很小的时候,怎么把原来的模型迁移过来,这是非常重要的研究方向。

  第三个方向和人相比就是归纳总结。人是非常能进行总结的,包括像牛顿的第一定律、万有引力,都是人总结出来的,还包括很多公理。但是目前机器学习是没办法进行归纳总结的,它并没有提炼出公理和定律的关系。所以未来我们要在这方面归纳总结,特别是深度学习上面,分类问题是有目标去学习的,但聚类问题没有目标的时候,我们怎么把它聚好。所以在这三个能力上面,我相信这是我们未来在AI上面要进行提升的。

  第二个就是在整个数学理论发展方向上,刚刚讲了很多机器学习通过数据方法,从传统的浅层学习里面,通过完备的统计学概率理论来支撑它。说到求这种函数极限的问题,我们有很多完备的数学公式去证明,一定能解决它的问题,但是恰恰在深度机器学习上面,虽然前面我们用了随机去找局部最优,但是它只是一个框架,还是一个启发式的约束,包括我们的初始化参数多少,包括我们学习率是多少,这都是有启发性的。在未来如果机器学习要继续往下走的话,我们在数学理论上面一定要有强大的支撑,特别是传统的机器学习,数学完备型,要迁移到我们深度机器学习上来。

  大家知道神经网络的提出,很多来自于原来的脑神经学科和生物系统,在这个上面,我相信未来AI的发展要引入更多,不光是数学学科、计算机学科,还要引入脑学科神经去,因为脑的神经结构就是类似刚刚我提到的残差神经网络,已经连接脑神经的概念了,进行跨层连接,达到一个非常好的效果。我希望未来可能在交叉学科上面,包括刚刚说的生物、脑神经,包括哲学都要去引进来,这样整个AI才能有更具完备型的发展。

  另外一个就是,在当今世界,我觉得是对所有公司来讲,对所有人来讲,AI都应该是平等的,所以我们一定要开放。比较好的是,在AI领域,当今世界所有的大公司都在做,包括腾讯也会做,例如谷歌的Open,包括FaceBook也Open了非常多的网络模型,以及现在很火的OpenAI等等的这种机器学习、AI的这种先行者,腾讯在未来也会去进行很多Open,让更多的人来参与进来,进行模拟测试。未来AI的发展,我相信第一方面就是在能力上,要跟人去匹敌的话,要进行提升,第二个是整个学习的完备型,学科完备上要进行丰富,第三个就是所有的这种大的公司,AI的参与者要以更加开放的心态去面对AI,这才是AI的未来。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

【干货】胡郁:科大讯飞的深度学习之路(PPT下载)

【新智元导读】科大讯飞轮值总裁胡郁今天在“第三届网易未来科技峰会”发表演讲,介绍科大讯飞深度学习发展之路:从2010年开展DNN语音识别研究,2011年上线首个...

5438
来自专栏AI科技评论

张钹院士:走向真正的人工智能 | CCF-GAIR 2018

6 月 29 日上午,清华大学研究院院长张钹院士为 CCF-GAIR 2018 主会场「AI 前沿技术」做了题为「走向真正的人工智能」(Towards A Re...

1465
来自专栏AI科技评论

地平线机器人CEO余凯:人工智能和深度学习的下一个风口在哪(含22页PPT)

雷锋网按:本文根据余凯在微软亚洲研究院召开的“让世界充满 AI-人工智能研讨会”上所做的报告《 “AI Inside”无处不在的未来 》编辑整理而来,在未改变原...

4144
来自专栏PPV课数据科学社区

一个资深数据人对数据挖掘解读

在银行做了两年的数据分析和挖掘工作,较少接触互联网的应用场景,因此,一直都在思考一个问题,“互联网和金融,在数据挖掘上,究竟存在什么样的区别”。在对这个...

3445
来自专栏AI科技评论

Jeff Dean两年AMA全盘点:26个关于谷歌大脑和机器学习未来的问题

AI科技评论按:前两天,谷歌大脑团队又在Reddit上做了一次AMA(Ask me anything)活动。 去年8月时候谷歌大脑团队也在Reddit上做过同样...

34210
来自专栏新智元

微软首位华人“全球技术院士”黄学东:10个神经网络造就工程奇迹

【新智元导读】微软语音识别技术24年老将黄学东近日被评为“微软全球技术院士”,成功摘下这一微软技术的“桂冠”。 黄学东于1993年加入微软。1995年,黄学东最...

4457
来自专栏钱塘大数据

张钹院士:走向真正的人工智能

摘要:6 月 29 日上午,清华大学研究院院长张钹院士为 CCF-GAIR 2018 主会场「AI 前沿技术」做了题为「走向真正的人工智能」(Towards A...

1563
来自专栏人工智能快报

谷歌开放TPU应对英伟达GPU挑战

谷歌宣布将以“有限数量”向谷歌云客户开放张量处理器(Tensor Processing Unit,简称TPU)服务,按时收费,每小时成本6.50美元。 谷歌宣布...

3208
来自专栏AI研习社

张钹院士:走向真正的人工智能 | CCF-GAIR 2018

AI 研习社按:2018 全球人工智能与机器人峰会(CCF-GAIR)在深圳召开,峰会由中国计算机学会(CCF)主办,雷锋网、香港中文大学(深圳)承办,得到了宝...

1301
来自专栏AI科技评论

深度 | 论文被拒千百遍,团队不受待见,Yann LeCun为何仍待深度学习如初恋?

AI科技评论按:Yann LeCun是人工智能神经网络方面的大牛,现在是Facebook人工智能研发团队的领军人物。可是他的研究之路并不是一帆风顺,在神经网络变...

3507

扫码关注云+社区

领取腾讯云代金券