首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

不仅仅是机器学习,快速了解人工智能的六大领域

提示:阅读本文预计需要10分钟,读完后希望能够帮助您对人工智能的六大领域有一个基本的全貌认识。

12月7月到12月9日,中国大数据峰会在北京召开,公司帮我弄到了票去参加,其实可以发现“大”数据行业现在一个热门话题就是他们和AI的关系,可见AI现在是多大的一个风口,而且也正如前面第一篇所说的一样,除去一些学术专家外,其实大部分的嘉宾会有意或无意地将AI和机器学习、深度学习划上了等号,这点毫不意外,因为对于媒体而言这个等号是对等的,我觉得基本这样理解也没有大的问题,因为现在大多数人说AI的时候,其实说的就是机器学习和深度学习,我们没有必要和社会集体意识去较劲,但为了更清晰一些,我还是兑现之前的诺言,把我最近一段时间理解的人工智能分享一下,主要知识和精神来自于加州大学视觉、认知、学习与自主机器人中心主任,朱松纯教授的分享,我理解后进行了自己的阐述,一定有很多纰漏,敬请原谅,末尾我将分享朱松纯教授的一个完整的文章(相当于一本小书),和他的研究成果相比,我这个的确什么也不是。

好,转入正文,在我的理解里面人工智能可以切割为六大领域:

01、计算机视觉

02、认知推理

03、自然语言

04、博弈决策

05、机器学习

06、机器人学

大家可以看到,机器学习我把它放在后面,我理解它这是人工智能领域里的重要一环,但的确只是1/6。

在开始切入前,我想请大家先思考一下,我们人的智能怎么产生的?说起来貌似很复杂~很复杂~

但是如果坐下来静下来心来,我们拆成一个个模块的话,其实人的智能来自于:看、听、嗅、触、味,这些基础的五感,通过我们的大脑进行认知,然后决策行为。

这是一个模型,只是模型内部过于复杂,但站在上面我们抽象来看,其实人的智能就是通过一些输入,进行认知,然后决策,最终行动的过程,甚至这个地方会引出人有智能的意义:个体为了能够好好活下去,族群为了能够整个族群繁衍下去,好像就这样,任务驱动了智能,这句话随着研究会越来越觉得对

01、计算机视觉

人的五感中,最重要的是什么?大部分人会选择的是眼睛,同样,对于人工智能而言,也许想要产生智能最重要的是能看见,让机器看见。

我们来看一张图,这是我今天下午刚拍的,随手拿来:

这张图片我想说两个点来展开人工智能里面的计算机视觉到底在做什么:

1、这张图是2D的,但是我们人类,可以通过这张图片看到纵深感,你可能已经司空见惯了,认为眼睛看到了3D场景,但是所有的研究都告诉我们,人眼成像是2D的,纵深感是脑补的,你可以知道人站在黑板的前面,几乎和桌子持平,这点是我们本能的反应,虽然上天赋予了你这些天赋,但我们应该还是仔细思考一下,我们是靠什么从一张明明是2D的照片上,看出了带有纵深的3D场景?这点很重要,这是计算机视觉需要研究的。

2、机器其实可以在0.01S内扫描到这张图片上的所有场景和物体,这点和人不一样,我们会随着看图时间的增长而理解更多内容,比如请注意我红框框的内容,我问几个问题:请问这个帅哥身高多少?体重多少?请问桌子上那个绿色的东西是什么?大概多高?你能看到后面PPT的内容吧?请问这个帅哥在做什么?最后,请问左右两侧的白色控制器,哪个你感觉是控制空调的?

OK,我现在再问一个问题,从而来回答前面的两个问题,并且引出下一个点,也就是认知,我刚才问的问题,包括你之所以能够知道这张图的纵深,真的来自于你“看到”吗?

根据最新的脑神经研究,其实你看到的只是一张2D图片,你能知道是3D的原因,来自于你的认知,而你如果能够回答我问的身高等问题,其实来自于你的经验,依然是认知的,所以实际上,我们继续深挖,如果有人认识这个帅哥,那他可以回答更多的问题,这个人几岁,他的爱好,他在哪里工作等等,这些,是能够从这张图片看出来的吗?当然不能。

因此我也想引入人工智能的“暗物质”的理论,这张图片上的信息实际上只有5%的信息,而计算机视觉,最多做到5%,一般可能也就2%左右,而我们人类能够从这上面读出来的信息有95%是暗物质,这张图片上根本没有!

我们人类根据视觉看到的5%,脑补了剩下的95%。

因此貌似所有都指向了认知推理,AI里的核心是认知推理吗?那我们来看看认知推理。

02、认知推理

其实我想直接给答案,现在的AI认知推理,依然给不了那95%的暗物质,也许很多人会挑战,只要我识别出来了这个人是谁,那这个人的很多信息是公开的,我能够回答很多问题,他是谁?喜欢什么?住在哪里?经常去哪里?等等。。。

对不起!这是人工智能吗?听起来像是用户画像吧?如果冷静下来,我们可以发现这不是人工智能领域回答的问题,那还是这张图,请问,这个帅哥喜欢什么颜色

如果让人工智能来,最有可能的答案是:粉色,对不起,我不是(没错,这是我今天下午刚刚拍的照片)。

你也许根本没法知道,我为什么穿这件衣服,但是一些人(聪明)会开始推测,会根据我的年龄(看出来的,推断的),我是否已婚?等等推测:这是不是我家里的女性亲人给我买的衬衫?这是智能!这是我们要的!不要跟我说,你可以根据我家人的购买记录来找这件衣服谁买的,那是行为监控,对于人类,你是可以不需要知道谁买了的证据,就会去猜这是不是我家里的女性亲人买的,这才是认知推理!而且不管这个答案是不是对的,请问人工智能如何来从一张图片来推测这么一个信息?

那为什么人就能这么认知推理?而机器不会?机器只会去查数据,这就是人工智能认知推理领域最大的难题,实际上,认知推理依然只能解决那5%的亮物质问题,95%的暗物质问题,AI无从下手,这并不奇怪,就如同如果是我最好的朋友,他们会知道我很不喜欢粉色(我没有和他们说,而是我日常的行为能让他们知道,我并不是一个喜欢粉色的人,而我家人会给我买一件粉色的衣服,这背后到底是为什么?OK,真正的智能问题,越来越复杂了,揭晓答案:因为我老穿黑色和白色的,所以我的家人想让我去学校时,显得活泼一点,人类可以理解,而机器呢?它学习的越多,越想不到这个结果!),并且不同经历的人,不同年纪的人会对这张图片里,我喜欢什么颜色有不同的解读,但是他们一定不需要去百度我的信息,到目前为止这是AI领域最大的难题,同时这需要和脑神经科学结合,可能我们才会有最终的解释,并且这个问题会上升到一个极高的高度,实际上!这张图片里,我们每个人看到了一张图片,但是我们每个人的认知是不一样的!也就是说,你看到的粉色,其实和别人认知的粉色不一样,一样的东西,我们会有不一样的认知,这就是智慧,而到底这张图片真实的样子是什么样子的?那真的只有上帝知道了,这张图可以解释这个模型,来自朱教授的研究:

这个模型模仿了两个人对于同一张图片的认知模式,红色框其实是真相,但是这不重要,因为的确只有上帝才知道,而重点是蓝色框的共同认知,原因是两个人有共同的背景,如果这个认知大量共知,得到大部分认可,就会成为集体社会价值观,比如:不能杀人。

人工智能是否能够得出这样的认知推理?如何得出?非常神奇的事情,目前这个领域,我们依然没有答案,但这里就引出了下一个内容,自然语言,因为你发现没有?从视觉诞生认知,而认知需要交流,人与人的交流依靠的是自然语言而自然语言的意义在于交流认知,并且产生公认,产生集体价值理念。

03、自然语言

这里我非常崇拜咱们的老祖先,我觉得对于中国人而言,语言就是视觉,视觉就是语言!我们直接上图,下面是甲骨文:

我觉得老外要花很多时间去理解自然语言在人工智能里到底是什么意义,但是我相信能看到这篇文章的大部分都是中国人,因此,我真的不想多解释了,其实自然语言的使命就是:人类认知交流的方式。我们的自然语言,就是从看到的视觉而来的,这点比西方的符号语言更好理解。

中国人看着甲骨文应该很好理解这个概念,因此我们直接进入到下一个章节?为什么人要交换认知,并且求得公知?这就是接下来的内容,博弈决策。

04、博弈决策

机器人要与人交流,它必须懂得人类价值观。哲学和经济学里面有一个基本假设,认为一个理性的人,他的行为和决策都由利益和价值驱动,总在追求自己的利益最大化。与此对应的是非理性(没有任何歧视脑不健全的人,研究越多,我越想帮他们做些什么,比如自闭症患者)的人。对于理性的人,你通过观察他的行为和选择,就可以反向推理、学习、估算他的价值观(而对于深度学习,目前这块是黑盒的,不可解释性过强)。我们暂时排除他有可能故意假装、迷惑我们的情况,而其中非常重要的是他的语言,不论是声音,还是文字。

而人与人不同,就算同一个人,价值观还会变化,但是很多时候我们会有共同认知,并且根据这样的共同认知去进行决策,比如,我们都知道,要吃卫生的食物。

我上一个图,大家理解一下,这是朱教授学生的一个试验,让6个人走到一个屋子后,用自己最舒服的方式坐下,不论你是要坐在地上,凳子,还是沙发,结果不同的人会用不同的方式坐下去。

但通过研究后,会发现虽然人的坐法不一样,但是他们都在理解、并且用自己的行为去解释这样的一个价值观:“舒服”,有些人的腰有伤,有些人背有伤,有些人喜欢硬的,有些人喜欢软的,但无论如何,每个人都会用一个“函数”去求解,什么是让自己最“舒服”的。OK,到了这一步的时候,你看到了凳子(计算机视觉),理解了什么叫“舒服”(个人认知),并且听懂了我的问题(自然语言),现在该你决策了,怎么坐着舒服?这就是博弈决策,特别是在这个例子里,你和其他几个人要博弈,因为座位有限,看到第一张图里C的人了吗?也许他就是决策太慢,导致需要坐在地上,但我相信他依然在坐在地上的前提下,尽可能让自己舒服,而每个人都在不停地进行博弈和决策,我到底怎么坐着舒服?甚至有些人会思考,我舒服了,别人舒服吗?这个问题对于我们人而言太简单了,自然而然的求解,而人工智能呢?这就是我们经常说到的“价值函数”,这一点复杂,但并不难理解,就如同 AlphaGo一样,其实是求最优解的一个过程,一般是能够算法化和数学化的,目前在人工智能领域,基本两大类:

归纳学习

演绎学习

AlphaGo就先是通过归纳学习,学习人类大量棋局;然后,最近它就完全是演绎学习了。AlphaGo的棋局空间与人类生存的空间复杂度还是没法比的。而且,它不用考虑因果关系,一步棋下下去,那是确定的。人的每个动作的结果都有很多不确定因素,所以要困难得多。

这里聊聊对人生的小感悟:

人的学习往往是两者的结合。年轻的时候,归纳学习用得多一些,演绎学习往往是一种不成熟冲动,交点学费,但也可能发现了新天地。到了“五十知天命”的时候,价值观成型了,价值观覆盖的空间也基本齐全了,那么基本上就用演绎学习。

人的认知决定了你的决策,机器同理,而让机器产生价值观,它们才能真正根据智能去进行决策,才可能与人协作,让机器知天命,我们的路还很远,不论是人工智能,还是我们对个人的追求。

05、机器学习,到底什么是“学习”

终于到了大家最熟悉的地方了:机器学习,这是当前人工智能的代名词,而前面的一些铺垫已经开始把认知的产生、博弈决策的求解,引向了这里。

我想再用朱教授的一个研究成果来解释机器学习的意义:

这张图很像前面的认知模型,其实学习本身解决的就是一个认知问题,通过视觉、语言等,在互动的方式下,一个老师帮助一个学生纠正自己认知,并且两个人(老师也会有收获)最终共同获得公知,机器学习就是这样的一个求解过程,机器学习的模式,不论主动学习,增强学习等等,我不再多讲,因为这篇里反而机器学习不是重点,我仅仅想抛出这样的一个观点:机器学习将前面的视觉、语言、认知、博弈四大领域揉合在了一起,最终通过数据、算法、价值函数来出现智能,这是一个解,但就跟很多人知道的一样,看起来应用不错,但几乎可以肯定:不是最终解,目前这个领域玩的是数据,不是算法,更不是智慧,有商业价值,没有学术价值

但这并不妨碍我们去学习机器学习,因为对于大部分人而言,你要解决的是企业的商业诉求,以及个人的价值实现,把这些问题留给我们的科学家们吧。

在这个地方,我想抛出一个话题,中国有14.5亿人(非常庞大的数据),如果我们将这些人的认知互联,并且互相之间可以互动学习,那将产生如何的集体智慧?进步?还是毁灭?会不会出现集体的无意识化决策?这个答案,有一部科幻名著尝试做了解释,大家可以参考:时光三部曲,威尔森的《时间回旋》,《时间轴》,《时间漩涡》,很有意思,大家看以参考,我的观点:大规模的无控制的集体认知互联,可能是走向毁灭,我国国内互联网上的负能量情况就在回答这个答案,希望我的想法是错的。

06、机器人学

OK,终于到了最后,机器人学才是大家一般听到人工智能时脑子出现的产物,不知道有多少男生像我一样,基本想到的会是施瓦星格扮演的机器战警:

不过那是科幻片里的,30年过去,到目前,我们能做到的最好的却是这样,理想很美好,现实很骨感:

最终,机器人学将会把前面所有的部分,视觉、认知、语言、推理、学习的结果,通过具体的机器人综合学,包括运动学,物理力学,达尔文进化学等等,呈现在我们的面前,到时候我们还会出现社会伦理的问题,如何看待具有智慧的机器人和人生的人之间的社会问题,比如结婚和生子。。。这些问题太复杂了,我们还不用多想,而现在的问题是,我们需要多久,才能见到像施瓦星格演绎的那样的机器战警?

最后重新回顾一下总体内容,如果哪个地方没有看懂,可以翻回去重新看一下,希望本文对你的全面认识有更好的帮助,也欢迎大家与我交流,并且指出本文的问题,谢谢。

人工智能的六大领域

01、计算机视觉

02、认知推理

03、自然语言

04、博弈决策

05、机器学习

06、机器人学

作者按:(本公众号已经受邀加入了原创保护,欢迎转载,但如有转载请注明出处)。

======================

扫描关注微信号,获取更多有价值信息。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171210G0EJW400?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券