动态 |《机器学习》作者Tom Mitchell:人工智能如何向人类大脑学习?

AI科技评论按:4月27日,GMIC 2017(全球移动互联网大会)北京站开幕。卡耐基梅隆大学计算机科学学院机器学习系主任Tom Mitchell发表了“突破人类和机器的边界”的主题演讲。Tom Mitchell认为,通过对人类大脑的模仿,计算机在变得越来越强。随着机器智能和脑科学的进一步发展,未来两个学科之间应该有更多的交集,并互相学习和借鉴。

Tom Mitchell:卡耐基梅隆大学计算机科学学院机器学习系主任、教授,美国工程院院士,美国科学进展学会(AAAS)成员,人工智能进展学会(AAAI)成员,美国《Machine Leaming》杂志、国际机器学习年度会议(ICML)的创始人。他在机器学习、人工智能、认知神经科学等领域卓有建树,撰写了机器学习方面最早的教科书之一《机器学习》,是机器学习领域的著名学者。

以下是演讲全文,AI科技评论做了不改变原意的整理:

人工智能与脑科学的进展

今天在这里,我想和大家探讨一个问题,那就是我们的智能如何从物理材料中实现突破,这是科学界还未解答的问题。目前有两种研究途径,首先是研究大脑,因为大脑是有智能的,第二是努力打造一种具有智能的机器。这是两种学习智能的方法,已经进行了很长时间了。

我今天想说的是,这两个领域相互之间没有交集,每个领域的专家对另外一个领域都不太了解,我们需要投入更多的资源来进行两者之间的交叉研究。首先讲的是第一点,这两个研究领域在过去十年里面取得了很大的进展;第二点,我们现在已经对两个维度都进行相应的实例研究,两者之间的确出现了一些交集,可以互相学习和借鉴。

所以我会对这方面进行一些探讨,希望进一步激活两者之间的交集。首先可以看一下,我们的人工智能在过去的十几年里取得了重大进展,最近人工智能已经战胜了人类围棋的冠军,而且国际象棋、德州扑克也已经被人工智能攻下,现在我们看到的则是无人驾驶汽车,比如Uber就在进行这样的测试。

在过去的十年里,计算机视觉技术的进展很快,机器识别的准确率从过去的60%上升到95%左右。在语音方面也实现了突破,去年10月,微软的对话语音识别技术在产业标准Switchboard语音识别基准测试中实现了词错率(word error rate, 简称WER)低至5.9%的突破 ,创造了当时该领域内错误率的最低纪录。

比如前面讲到了下围棋、下象棋,人工智能在这一领域突破非常快,背后主要是依靠深层次的机器学习。另外我们在脑科学方面的发展也非常迅猛,在过去十几年的时间里,有很多先进的技术和设备,使得我们可以采用无创或者微创的方法进入到人的大脑,进行毫米级地观察,而且在毫秒内就可以对几千张影像进行分析,观察人脑的活性。此外,动物大脑的研究更加令人欢心鼓舞,通过基因方面的研究,在基因上进行相应的工程,对老鼠和其他动物相应的神经元进行修饰、改变,这样可以更好的对人的神经活动进行一些管理和控制。

通过这样一些脑科学的发展,脑科学领域的一些理论和假设都取得了突破。比如老鼠在一个迷宫中行走的时候,老鼠对自己在迷宫中的位置的感觉到底是怎样的,这就可以通过观测它的神经元放电来找到。不同的情况下,大脑各个区会域进行相应的振荡,因此可以在不同的时间点进行观测,当人们在社交的时候,大脑当中管社交的部分会得到同步的激活,不过有自闭症的人和正常人的状况也不一样。总之,无论是人工智能还是脑科学,都取得了令人瞩目的巨大进展。

人工智能与脑科学的结合

所以就出现了这样一个问题:为什么不将两者结合起来呢?在研究方面,无论时脑科学还是人工智能都在进行交叉的研究。首先是计算机视觉,神经网络的确使得计算机的视觉发生革命性的改变,这样的一个神经网络,可以用来预测人脑当中的神经元的活动,包括它的视觉皮层相应的活动,这是一个深层次的神经网络。我们可以来看一些细节,左上方是单个神经网络当中的单元,通过输入输出可以看到相关的情况。我们可以对它的输入进行研究,观察它到底是怎样的组合,右下图展现的是这些单个神经元组成的网络,一个输出成为另外一个输入的情况,我们可以对这样深层次的网络进行训练,比如把输入的影像通过输出展现出这个影像到底是什么,然后进行相应的深度学习。

这个时候我们就可以对网络当中滞后的阶段进行探测,看一下成为条件的时候它是怎么编码的。在2014年的时候,有人做了一些实验,他们训练了不同的网络,在训练了这些神经网络之后,把同样的影像给这些神经网络看,通过FMI的扫描仪,观察人的大脑当中相应的神经活动,来更好地进行预测,这是令人称奇的的结果。现在人工的神经网络可以被我们用来训练,做一些相应的预测,也就是说我们现在可以建立一种桥梁,对大脑当中的脑神经的活动进行预测,这样就打开了无限的可能,可以回答很多有趣的问题。

比如人的视觉到底是怎样形成的,以及可以用怎样的设备设计更好的人工神经网络,帮助我们做这样的预测。一层一层进行输入、输出,这样可以进一步推动人工的神经网络。我们知道大脑当中的确是不一样的,大脑当中是有前输和后输的,在这个桥梁当中可以进行研究,人工的大脑和人的大脑到底有什么区别,然后相互借鉴、促进。

这里有另外一个例子,也是来自于最近的一个研究,是自然语言处理领域的研究成果,那就是谷歌的自动翻译系统的能力得到了很大的提升,比之前更精确了,这是为什么呢?主要是深层次的神经网络,更可能是由于网络里有一些储存。通过对大脑的研究,我们观测大脑怎样用神经活动来解释不同单词相应的词义,这些词义给了我们更好的回答方式。对这些细节进行研究,我们会产生一种模型或者理论,来帮助我们对大脑的活动进行预测,通过这样一个模型结构,来对应任何输入。

比如说电话,首先这个模型产生一个代码,用它预测神经活动,大脑当中有两万个不同的位置被预测出来。然后进一步通过矢量来进行预测,比如这里是芹菜和飞机的两个矢量,两个矢量的特征都和相应的词对应。对应芹菜可以看到和芹菜相关联的字数,口味是和芹菜相应的一个关联度;对飞机来说,则会出现很多的动词,可以看到相关的一些词就出现了。

通过这样的一些模型当中的编码,可以很好的复现一些皮层当中出现的词,我们对模型进行训练。我们看到在下面对任何词的神经活动,比如芹菜,把这些语义的特征组合起来,通过模型的学习,把这些特征进行关联,可以发现,“吃”这个词和芹菜这个词的关联度是最高的。通过这样的研究很有意义,给到一个新词,比如说之前没有训练过,在对它的预测分析分析当中我们发现,在83%的情况下有两个新的词,哪个是第一关联,哪个是第二关联,有50%的可能性是正确的,有的词从来没有出现过,也会有很高的识别率,也就是说,神经的活动对词义的表达,是用了我们矢量表达法来进行词义解释。这是技术的表达,在人工智能和人脑当中存在一个桥梁的关系。

第三个例子是我们讲的强化学习,这个是现在非常流行的,比如相关的培训当中会出现一些强化学习的算法。很多时候对动物的一些奖励学习,也属于强化学习的方式。比如发一些糖给猴子吃,猴子认为这是奖励,所以大脑里有放电的现象,然后就可以找到对应的神经元。

这样的一种神经元放电代表什么呢?可能对这个奖励,也就是这个糖有所感应,所以放电了。通过这样的实验来训练这些猴子,给到猴子糖以后,后一秒就开始闪光,这个时候我们可以看到的情况就是给了猴子糖以后,猴子的神经元没有任何反应,而是当闪光以后,猴子的神经元才放电,说明猴子的神经元并不是因为给了糖才反应,而是对奖励这个事情本身放电,这是很酷的研究。

还有一种情况,没有给糖,只是闪光,猴子怎么反应?没有给糖,没有任何奖励,这个神经元就会怎么样来表达呢?闪光之后,猴子发现并没有给糖,这是一种抑郁,而不是奖励了,这是和强化学习直接相关的。这样的一个情况,很好地解释了我们看到的猴子的神经元的表现,因此在人工智能算法和我们人的大脑之间或者动物的大脑之间,有这样一种桥梁的关系,因此强化学习的算法对机器人的控制是可以用的,比如可以用于打败人类冠军的Alpha Go的训练。因此通过这样的一些对大脑行为的观测和检测可以帮助我们进行人工神经网络的训练。

通过这些方式,我们刚才也讲了矢量的应用和强化学习的方式,这样一些人工智能的算法,在我们的大脑当中,观测到了神经元活动的关联,因此我觉得,现在人的脑科学和人工智能方面到了可以有更多交集的好时机,我们应该在人工智能和脑科学之间搭建更多的桥梁。

我前面也举出了一些实例,希望大家可以进一步研究,尽管人的大脑不是由硅组成的电脑,但是有可能任何产生智能的物理方式都是有一些信息的约束条件的,这样的一种结构可以进行深层次的学习。我们可以从人工智能和人脑当中找到更多的答案帮助推进科学的进步,再次感谢各位。

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-04-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏CSDN技术头条

深度学习 vs 概率图模型 vs 逻辑学

【编者按】在上个月发表博客文章《深度学习vs机器学习vs模式识别》之后,CMU博士、MIT博士后及vision.ai联合创始人Tomasz Malisiewi...

1807
来自专栏新智元

【AI再创纪录】机器翻译提前7年达到人类专业翻译水平!

【新智元导读】微软昨天宣布其研发的机器翻译系统首次在通用新闻的汉译英上达到了人类专业水平,实现了自然语言处理的又一里程碑突破。 由微软亚洲研究院与雷德蒙研究院的...

3217
来自专栏大数据文摘

数据科学中的“数据智慧”

15910
来自专栏人人都是极客

零基础入门机器学习

这篇文章的初衷是很大一部分朋友都想了解如何入门 / 转行机器学习,搭上人工智能这列二十一世纪的快车。 本文的宗旨是: 1. 指出一些自学的误区 2. 不过多的...

3906
来自专栏AI科技评论

CNCC | 李飞飞最新演讲:视觉智慧是人类和计算机合作沟通的桥梁 | CNCC2017

AI 科技评论报道:中国计算机学会 CCF 举办的中国计算机大会CNCC 2017已于10月26日在福州市海峡国际会展中心开幕。参加会议的人数众多,主会场座无虚...

34012
来自专栏机器之心

IEEE智能系统10大AI青年科学家公布:南大俞扬、腾讯AI Lab刘威入选

1606
来自专栏腾讯高校合作

CCF-腾讯犀牛鸟基金项目课题介绍(一)——机器学习&计算机视觉及模式识别

2508
来自专栏机器之心

入门 | 从遗传算法到强化学习,一文介绍五大生物启发式学习算法

36010
来自专栏AI科技评论

解惑 | Yann LeCun答深度学习现存的各类疑问,你是否想知道答案?

联合编译:陈圳,高斐,章敏 深度学习的局限性表现在哪些方面? 深度学习的一些“典型”形式包括各种前馈模块(卷积网络)和递归网络(有时以记忆单元,如LSTM或M...

3287
来自专栏杂七杂八

CS231n学习笔记--计算机视觉历史回顾与介绍1

首先我们来看看官方对这门课的介绍: 计算机视觉在社会中已经逐渐普及,并广泛运用于搜索检索、图像理解、手机应用、地图导航、医疗制药、无人机和无人驾驶汽车等领域。...

662

扫描关注云+社区