学界 | DeepMind解密黑箱的第一步:原来神经网络的认知原理和人类是一样的!

AI 科技评论按:因为AlphaGo而名声大噪的人工智能公司DeepMind近期发表了一篇论文介绍自己在神经网络的解释性问题上最新探索。论文被ICML接受后,DeepMind的研究员们又写了一篇通俗的介绍文章让更多的人理解他们的方法和效果。

以下为 AI 科技评论对DeepMind介绍文章的翻译。

人类已经教会了深度神经网络做许多惊人的事情,从识别和推理图像中的物体,到在Atari游戏和围棋中发挥出超越人类的水平,不一而足。随着神经网络的结构和所做的任务变得越来越复杂,神经网络学到的解题方法也越来越难以被人类理解。

人们把这个问题称作“黑箱”。随着神经网络越来越多地参与解决现实世界中的问题,解决这个黑箱问题也变得越发重要。

为了能够了解和解释这些神经网络系统,DeepMind的研究人员们一直在探索新的工具和方法。最近ICML就收录了一篇来自DeepMind的论文,文中他们提出了一种新的、来自认知心理学的方法,来理解深度神经网络。认知心理学通过对行为的测量来推测认知过程的机理,有许多的认知心理学论文详细解释了这些机理,同时介绍了许多验证机理的实验方法。随着最新的神经网络在特定任务上达到人类水平,认知心理学的方法就能对解决黑箱问题起到不小帮助。

黑箱

DeepMind在论文中研究了一个具体案例来展现观点,他们设计了一个阐明人类的认知过程的实验,用来对比帮助理解深度神经网络如何解决图像分类任务。

结果是,认知科学家在人类身上观察到的行为,在这些深度神经网络中也能观察到。更进一步地,人们可以从这些结果中深入理解神经网络是如何解决图像分类任务的,这些理解不仅很有用,而且还令人惊讶。总的来说,这项案例研究的成功展现出了用认知心理学方法理解深度学习系统的潜力。

测量一次性词汇学习模型中的形状偏好

在DeepMind的案例研究中,他们思考了这样一个问题:人类小孩是如何识别并分类物体的,这个问题也在发展认知心理学中得到了丰富研究。小孩有从单个例子猜测单词意思的能力,人们称作“一次性词汇学习”,这种能力非常容易获得,人们也往往以为这个过程非常简单。然而,哲学家Willard Van Orman Quine提出过一个经典思想实验,展示出了这个过程到底有多复杂:

一位实地语言学家前去体验另一种文化,这种文化中使用的语言和他以前使用的完全不一样。这位语言学家就需要找肯帮忙的当地人教他一些单词。当有一只兔子跑过的时候,当地人说“gavagai”,语言学家就要猜当地人的这个词是什么意思。对语言学家来说,这个词可以指代的内容有很多种,可能是兔子、动物、白色的东西、特指这只兔子,甚至是兔子身上单独某个部位。实际上这个词可以代指的意象是无穷多的,人类是如何在其中选中正确的那个的呢?

“gavagai”

50年以后,面对着能够做一次性词汇学习的深度神经网络,同样的问题又出现在了人们的眼前。拿DeepMind开发的“匹配网络”举例,这个模型中用到了注意力模型和记忆模型方面的近期发展,达到了仅凭单张分类示例就可以对ImageNet图像进行分类的顶尖水平。但是我们并不知道网络在给图像分类的时候采取了怎样的假设。

为了深入探究这个问题,DeepMind的研究人员参考了一些发展心理学方面的研究。这些心理学家们发现了小孩有归纳偏好的证据。这种偏好可以消除很多不正确的指代,从而让他们找到正确的指代。这种偏好包括:

  • 整个物体偏好,小孩会假定一个单词指代的是整个物体而不是它的组成部分(消除了Quine对指代兔子身上单独某个部位的担心)
  • 分类偏好,小孩会假定一个单词指代的是一个物体所属的基础分类(消除了Quine对指代“全体动物”而不是“兔子”这个基础含义的担心)
  • 形状偏好,小孩会假定一个名词的含义是根据物体的形状而不是颜色或者纹理来确定的(消除了Quine对指代所有白色的东西而不是“兔子”这个具体对象的担心)

DeepMind的研究人员测量了他们的神经网络的形状偏好,这是因为人类形状偏好的相关研究尤其多。

来自认知心理学的刺激示例,DeepMind用它们测量深度神经网络的形状偏好。这些图像是由印第安纳大学认知发展实验室的Linda Smith慷慨提供的

DeepMind的研究人员所用的经典形状偏好实验是这样进行的:给深度神经网络展示三个物体的照片,一个试验物体、一个形状匹配物体(跟试验物体的形状相同)、还有一个颜色匹配物体(跟试验物体的颜色相同、形状不同)。然后把形状偏好定义为试验物体和形状匹配物体被网络划分为同一类的情况出现的比例,从而进行测量。

实验中用到的图像就是印第安纳大学认知发展实验室的人类实验中所用的图像。

这个认知心理学实验的概要,运用了匹配网络。匹配网络会把试验图片(左侧)和图像A或者B(上方中间或者上方右侧)进行匹配。输出(右下方)就取决于这个匹配网络的形状偏好

DeepMind团队用他们的深度神经网络(匹配网络和一个基准Inception模型)进行了实验,发现他们的网络对物体形状的偏好比颜色或者材质的偏好强得多,就像人类一样。换句话说,它们确实有“形状偏好”。

这种结果就表明,匹配网络和Inception分类器中都用到对形状的归纳偏好来消除错误的假设,让研究者对这些网络解决一次性词汇学习的方法有了一个明确的了解。

除了形状偏向,DeepMind团队还发现了一些有意思的事情:

  • 他们发现形状偏好在网络的早期训练中逐渐出现。这让人联想到人类形状偏好的出现:心理学家发现更小的小孩比大一些的小孩的形状偏好要弱,成年人的形状偏好最强烈。
  • 他们发现选用不同的随机种子做初始化和训练会导致网络的偏好程度也有所不同。这说明当研究深度学习系统并做出结论时,研究的样本数量需要很大才行,就像心理学家已经知道不能只研究单个对象就得出结论。
  • 他们发现即便几个网络的形状偏好有很大区别,它们的一次性词汇学习表现却都差不多,说明不同的网络可以找到很多种同样有效的方法解决复杂问题。

这种偏好在标准的神经网络架构中就存在,但以前没有人认识到过。此次发现了这种偏好,表明了用人类创立的认知心理学阐释神经网络解题方案的潜力。其它心理学领域的研究也有可能起到帮助,情景记忆文献中的观点可能可以帮助理解情景记忆架构,语义认知文献中的方法可能可以帮助理解近期的概念形成模型,以上在内的许多心理学领域都有丰富的文献,很有可能会给人类带来强有力的新工具,帮助解决“黑箱”的问题,也让人类更好地理解神经网络的各种行为。

论文地址:https://arxiv.org/abs/1706.08606

via DeepMind Blog, AI 科技评论编译

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-06-29

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏ATYUN订阅号

微软的AI技术可将你描述的内容绘制成图像 小白也能画出蒙娜丽莎

谷歌可能教会了人工智能如何涂鸦,但对计算机来说,绘制更复杂的东西是很困难的。想象一下,让电脑画一只“黑翅膀和短喙的黄鸟”;这听起来有点棘手。不过,微软的研究人员...

37890
来自专栏新智元

机器学习里,数学究竟多重要?

【新智元导读】本文的主要目的是提供资源,给出有关机器学习所需的数学上面的建议。数学初学者无需沮丧,因为初学机器学习,并不需要先学好大量的数学知识才能开始。正如这...

422100
来自专栏人工智能头条

大规模知识图谱的构建、推理及应用

15520
来自专栏AI研习社

深度学习+机器人,哪些技术方向最有可能产生火花?

AI 研习社按:本文作者qqfly,上海交通大学机器人所博士生,本科毕业于清华大学机械工程系,主要研究方向机器视觉与运动规划,会写一些好玩的内容在微信公众号:N...

40780
来自专栏云时之间

深度学习与神经网络学习:(1)小小的开始

其实说深度学习,之前或多或少之前也学过一些,比如像经常在TensorFlow用的CNN卷积神经网络和RNN递归神经网络以及LSTM等,再有就是现在学术界比较热的...

63770
来自专栏新智元

【深度】“信息瓶颈”理论揭示深度学习本质,Hinton说他要看1万遍

【新智元导读】在深度学习应用突飞猛进的现在,我们比任何时候都急需理论上的突破。日前,希伯来大学计算机科学家和神经学家Naftali Tishby等人提出了一种叫...

30240
来自专栏华章科技

大规模知识图谱的构建、推理及应用

随着大数据的应用越来越广泛,人工智能也终于在几番沉浮后再次焕发出了活力。除了理论基础层面的发展以外,本轮发展最为瞩目的是大数据基础设施、存储和计算能力增长所带来...

13320
来自专栏大数据和云计算技术

深度学习的历史和趋势

引言: 本文是黄文辉同学的第4篇文章,前面三篇分别是: SparkStreaming窗口操作 sqoop数据导入总结 SparkStreaming入门 最近AI...

42940
来自专栏新智元

掌握这些问题,成为 Facebook 机器学习工程师

【新智元导读】彭博社最近推出了一些列大公司面试指南,其中包括Facebook、Uber和高盛等大公司。那么,如果想进入Facebook做一名机器学习工程师,需要...

43560
来自专栏人工智能头条

Transfer learning在知心商业广告点击率预估中的应用

33440

扫码关注云+社区

领取腾讯云代金券