首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器学习如何借鉴人类的视觉识别学习?让我们从婴幼儿的视觉学习说起

欢迎各位大哥大姐来到小编的文章,希望小编辛勤的写作,能给大伙带来开心和笑容,如果真的如此请关注评论,这样小编就更加的有信心了。

机器学习如何借鉴人类的视觉识别学习?让我们从婴幼儿的视觉学习说起,引言

是人工智能长期追求的目标。我们正处于在人类和人工智能领域产生出新见解的临界点 (Cadieu et al., 2014; Kriegeskorte, 2015; Marblestone et al., 2016),这些见解将通过明确地将人类认知、人类神经科学和机器学习的进步联系起来而更快地显现出来。「Thought-papers」呼吁机器学习的研究人员利用来自人类和神经的灵感来建造像人一样学习的机器(例如 Kriegeskorte, 2015; Marblestone et al., 2016),并呼吁人类认知和神经科学的研究人员把机器学习算法作为关于认知、视觉和神经机制的假设(Yamins and DiCarlo, 2016)。这种新萌发出的兴趣的推动力之一是深度学习网络在解决非常困难的学习问题方面取得了巨大的成功。这些问题是以前无法解决的(例如 Silver et al., 2016)。在神经感知器和连接主义网络的谱系中,深度学习网络将原始的感官信息作为输入,并使用多层的分层组织结构,每一层的输出作为下一层的输入,从而形成特征提取和转换的级联。这些网络特别成功的一个应用是机器视觉。这些卷积深度学习网络(CNNs)的分层结构和空间汇聚不仅产生了最先进的图像识别技术,而且通过特征提取的分层组织来实现这一功能,这种特征提取近似于人类视觉系统皮层的功能(Cadieu et al., 2014)。

头戴式摄像机和头戴式眼球追踪技术的最新进展,已经在自然学习环境方面取得了令人兴奋的发现。人类日常视觉环境的结构和规律——尤其是婴儿和儿童的视觉环境——一点也不像最先进的机器视觉中使用的训练集。机器学习的训练图像是由成人拍摄并组织起来的照片。因此,他们偏向于成熟系统的「看起来有用」的东西,反映的是感知发展的结果,而不一定是驱动这种发展的场景(例如, Fathi et al., 2011; Foulsham et al., 2011; Smith et al., 2015)。真实世界的感知体验并不是由摄像机来框定的,而是与身体在世界上的活动联系在一起的。因此,学习者对视觉环境的视角是高度选择性的,取决于瞬间的位置、空间中的方位、姿势以及头部和眼睛的运动(参见 Smith et al., 2015., 2015, 待审)。图1显示了以自我为中心的视域的选择性:并不是环境中的所有内容都在婴儿的视域范围中;除非婴儿转过头去看,否则看不到猫、窗户、时钟、站着的人的脸。感知者的姿势、位置、运动、兴趣和社会互动使视觉信息的观点产生系统性偏向。

图1 自我中心视域的选择性。阴影指示的视场对应婴儿头部视角。

对不同类别的视觉体验会产生偏向。从而使所有这些——姿势、位置、动作、兴趣——都发生了巨大的变化。特别是在生命的前两年,每一项新的感官运动的成就——翻身、伸展、爬行、行走(以及更多)——都会为新的视觉体验类别打开大门。因此,人类视觉系统的发展不是通过成批的处理,而是通过一套系统、有序的视觉体验课程来完成的,这套课程是通过婴儿自身的感觉运动发展而设计的。以自我为中心的视觉系统为研究人员提供了直接访问这些发展受到制约的视觉环境属性的途径。在这里,我们考虑了真实世界视觉学习数据集的新发现与机器学习的潜在相关性。

鉴于当代计算机视觉的所取得的成功,机器学习者为什么要关心孩子们是如何做到这一点的呢?Schank 是人工智能早期的一位开创性人物,他写道:「我们希望能够开发出一个可以学习的程序,就像一个孩子所做的那样……」(Schank, 1972)。这似乎仍然是自主人工智能的一个合适目标。最近,在一个大型的机器学习会议上,Malik(2016年,私人交流,参见 Agrawal et al., 2016)告诉想为机器学习下一个大的进步做准备的年轻学习者「认真学习发展心理学,然后运用这些知识构建新的更好的算法。」有鉴于此,我们从一个例子开始,说明为什么机器学习者应该关注儿童学习环境中的规律:有充分的证据表明,一个两岁儿童在视觉学习方面的能力是当代计算机视觉中尚无法匹敌的(见 Ritter et al., 2017)。

两岁小孩能做什么

Gauthier et al., 2000; Malt and Majid, 2013; Kovack-Lesh et al., 2014)。这对人类和计算机视觉算法都适用。但目前儿童的发展轨迹和算法有很大的不同。对于儿童来说,早期学习是缓慢且充满错误的(例如, MacNamara, 1982; Mervis et al., 1992)。的确,1-2 岁的儿童在视觉目标识别任务中的表现可能比表现最好的计算机视觉算法要差一些,因为 1-2 岁儿童在进行类别判断时具有许多抽象过度和抽象不足的特点,有时在视觉拥挤的场景中完全不能识别已知的物体(Farzin et al., 2010)。然而,两岁之后情况就不一样了。此时,孩子们可以从一个实例推断出整个类别。只要给定一个新类别的实例及其名称,两岁的儿童就会立即以成人的方式概括该名称。例如,如果一个两岁的孩子遇到第一个拖拉机——比如说,一个绿色的 John Deere 拖拉机在地里工作——而当听到它的名字,孩子从这一点会认识所有的各种各样的拖拉机——红色的 Massey-Fergusons,古董拖拉机,割草机——但不是挖掘机或卡车。这种现象在发展文献中被称为「形状偏向」,是在儿童的自然类别学习中观察到的「单样本」学习的一个例子。这已经在实验室中得到了复制和广泛研究(例如, Rosch et al., 1976; Landau et al., 1988; Samuelson and Smith, 2005)。

下面列举一些相关研究成果。形状偏向的出现与儿童物体名称词汇量的快速增长是同时发生的。这种偏向是关于感知到的事物的形状,当儿童能够从主要部分的关系结构中识别出已知的物体时,这种偏向就会出现(Gershkoff-Stowe and Smith, 2004)。形状偏向本身是通过对一组初始对象名称的缓慢学习而习得的(据估计,其中可以包括 50 到 150 个学习到的类别, Gershkoff-Stowe and Smith, 2004)。在实体游戏的背景下,对基于形状的对象类别辨别进行早期强化训练,会导致 1-2 岁的儿童比一般儿童更早出现形状偏向,而且这些儿童词汇量的增长速度也会更早 (Samuelson, 2002; Smith et al., 2002; Yoshida and Smith, 2005; Perry et al., 2010)。形状偏向不仅与儿童对物体名称的学习有关,还与对的物体操作有关 (Smith, 2005; James et al., 2014a),并随着儿童从三维形状的抽象表征中识别物体的能力逐渐增强(Smith, 2003, 2013; Yee et al., 2012)。学习语言有困难的儿童——晚说话者、有特殊语言障碍的儿童、自闭症儿童——不会形成强烈的形状偏向(Jones, 2003; Jones and Smith, 2005; Tek et al., 2008; Collisson et al., 2015; Potrzeba et al., 2015)。简而言之,典型的成长中的儿童在缓慢地学习一组对象类别名称的过程中,也会学习到如何以某种方式直观地表示对象形状。这种方式使他们能够在只提供一个新类别实例的情况下,估计出一个新对象类别的边界。最先进的机器视觉运作方式则不同。没有哪种机器学习的方法能够改变其学习的本质;相反,每一个需要学习的类别都需要大量的训练和例子。

他们的内部算法必须能够利用日常经验中的规律,不管这些规律是什么。因此,了解婴儿的日常视觉环境——以及他们如何随着发展而变化——不仅有助于揭示相关的训练数据,而且还提供了有关学习的内部机制的信息。

发展变化的视觉环境

非常清楚地表明:人类视觉学习的训练集在成长过程中发生了很大的变化。图 2 显示了头摄像头捕获的示例图像。一个例子涉及到婴儿对周围人的以自我为中心的视角。对婴儿在日常生活中采集的大量头部相机图像进行分析(Jayaraman et al., 2015, 2017; Fausey et al., 2016)研究表明,人物总是出现在婴儿头部相机图像中,新生儿和两岁儿童的这一比例是相同的。这并不奇怪,因为不能把婴幼儿单独留下。然而,在头部摄相机的图像中,年龄较大和较小的婴儿的具体身体部位是不一样的。对于3个月以下的婴儿来说,人脸无处不在,在每小时的视觉体验中,人脸占15分钟以上。此外,这些脸始终靠近年幼的婴儿(在距离头部摄像机2英尺以内),并显示出两只眼睛。然而,当婴儿接近 1 岁生日时,头部摄像机记录下的面部图像已经很少见了,在醒着的每一个小时里,只有大约6分钟的时间有面部出现。相反,对于 1- 2 岁的孩子来说,他们可以看到其他人的手(Fausey et al., 2016)。这些手主要(超过85%的手的图像中)会接触和操作一些物体。这种婴儿面前视觉场景内容的变化是由他们的感觉运动能力的变化、父母相应的行为以及婴儿兴趣的变化所驱动的。在所有这些相互联系的力的作用下最终产生了用于视觉学习的数据。这些数据会发生变化——从许多全景式和近距离的面孔到许多作用于物体的手。我们强烈怀疑这个顺序——早期的面孔,后来的物体——这关系到人类视觉物体识别如何以及为什么以这种方式发展。

图2 头部相机的样本捕捉了三个不同年龄的婴儿的图像。

「沉睡效应」体现了早期密集的人脸视觉体验的重要性。Maurer et al. (2007) 将沉睡效应定义为一种在发展后期出现的永久性缺失,但这是由于早期体验不足造成的。一个例子涉及婴儿在 2 至 6 个月大时因先天性白内障而丧失早期视力输入的情况。根据多项视力发展指标(包括敏锐度、对比敏感度),这些婴儿在白内障摘除后,开始追赶上同龄人,呈现出视力发展的典型轨迹。但随着年龄的增长,这些个体在人类视觉面部处理的成熟特征之一「构型面部处理」(configural face processing)中表现出永久性的缺失。构形处理是指基于一种类似格式塔的表征,它压制个体特征信息对个体面孔进行区分和识别的过程。这是人类视觉处理的一个方面,直到 5 - 7 岁时才开始出现(Mondloch et al., 2002)。 Maurer et al. (2007)假设,早期的经验保存和/或建立了神经基质,用于较晚发展的面部处理能力(另见Byrge et al., 2014)。我们推测,婴幼儿密集的近距离、全视角面部体验是先天性白内障婴幼儿早期体验缺失的部分。因为这些经历与婴儿自身不断变化的偏向和感觉运动技能有关,所以当婴儿的白内障后来被摘除时,这些经历不会被他们的社交伙伴带来的经验所取代。因为到那时,婴儿自身的行为和自主性将产生非常不同的社交互动。因此,根据假设,早期密集的面部体验对于建立或维持大脑皮层回路可能是必要的,而大脑皮层回路支持后期出现的专门的面部处理。

这是针对特定领域的结果的特定领域的体验。然而,我们有理由提出另一种观点。人类视觉皮层通过一系列特征提取和转换的层级系统构建我们所看到的世界(例如, Hochstein and Ahissar, 2002)。所有的输入都在相同的低层和所有较高的表示层中通过并进行调优——面孔、对象、字母——在低层的活动上进行计算。这样,对人脸的学习和对非人脸对象类别的学习都依赖于相同底层的精度、调优和激活模式。较低层次的简单视觉识别在较高层次的视觉过程中具有深远的普遍性(例如,Ahissar and Hochstein, 1997)。来自人类婴儿的头部摄像机图像表明,较低层次的最初调谐和发育是通过视觉场景完成的,其中包括许多闭着眼睛的面孔。正因为如此,儿童以后对非人脸物体特征的学习和提取至少在一定程度上是由较低层次的早期调谐形成的,这种调谐严重偏重于近距离人脸的低层次视觉特征。

但早期视觉体验对后来发展的作用同时具有消极和积极两方面的意义。个人早期经验中的结构规律性会对层次化的神经系统进行训练和调优,这样做可能建立潜在的隐藏能力,而这些能力对以后的学习起着至关重要的作用。人类发展的相关研究提供了许多目前无法解释的例子,它们说明了过去的学习对未来的学习有多么深远的影响。例如,通过点阵列视觉识别的准确性可以预测日后的数学成绩(Halberda et al., 2008),通过幼儿的形状偏向可以预测学习字母的能力(Augustine et al., 2015; 参见 Zorzi et al., 2013)。与人类视觉系统相似,深度学习网络是「深度」的,因为它们包含层叠的层次结构。这种结构意味着,与人类视觉类似,在一个任务中形成的早期层表征将被重用。理论上它可以对在其他学习任务同时产生消极和积极的影响。对于这种分层学习系统,有序训练集的计算价值还没有得到很好的理解。从面部到手触物体的受限、但逐步发展的训练集的整个组合,是否就是解释 2 岁儿童只需要一个或几个实例就能够学会分类一种新的非面部物体的部分原因呢?

幼儿如何触类旁通

这些图像中实体的分布既不是世界上实体的随机样本,也不是这些以自我为中心的图像中均匀分布的实体。相反,经验是极其右倾的。婴儿头部相机图像中的物体是高度选择性的——很少有哪个种类是普遍的,大多数物体是很少出现的。那么,这里有一个关键问题:通过广泛地(可能是缓慢地)学习某些东西,如何产生一个能够快速学习所有类别、包括一些不常见事物的学习系统呢?幂律分布既体现在婴儿对独特个体面孔的体验(Jayaraman et al., 2015),也体现在婴儿对物体的体验(Clerkin et al., 2017)。在婴儿出生后的一整年里,他们看到的面孔高度集中在少数几个人上,其中最频繁出现的三个人大约占头部相机图像中所有面孔的 80%。同样,婴儿视觉环境中的物体分布也极其右偏,一些物体类别比其他类别更频繁(Clerkin et al., 2017)。图 3 显示了 8- 10 个月大的婴儿在 147 次不同的餐桌时间(Clerkin et al., 2017)中,头部相机图像分析中常见物体类别的分布情况。很少有对象类别是普遍存在的,而大多数物体是很少出现的。有趣的是,最常见的物体类别的名称也是很早就获得的,但要在 8 到 10 个月,也就是第一个生日之后。这表明,早期密集的视觉体验为以后学习这些特定物体的标签做好了准备。

早期名词(对象名称不是第一名词和至少50% 30个月儿童的产出性词汇),以及后来的名词(所有其他对象名称)。

相对较小的个体对象和对象类别的普遍性,使婴儿能够定义学习的初始目标集(Clerkin et al., 2017;参见 Salakhutdinov et al., 2011),然后掌握与在许多不同的观看条件下识别这些少数物体相关的视觉不变性。这可能是关键的一步——完成对一部分事物的学习——从而掌握从有限的经验中快速学习的通用能力,例如 2 岁儿童的形状偏差(Smith, 2013)。这种对一部分事物的完全了解可能不仅依赖于经验的数量,而且还依赖于经验在时间上的持续。当一个物体被长时间观察时,与该物体有关的视网膜信息必然会不断变化,显示出相关的转换和识别的不变性,这种不变性可扩展到识别新事物(Fldiák, 1991; Wiskott and Sejnowski, 2002; Li and DiCarlo, 2008)。

新生的雏鸡在严格控制的视觉环境中长大,给它们观察移动和旋转的单个物体。通过一系列的控制饲养实验,研究人员们实验了不同的运动和旋转特性。结果表明,随着时间的推移,单个物体的观察经验就足以让小鸡建立健壮的物体识别技能,可以识别这个物体的未见过的视角以及从未见过的其它物体(Wood, 2013, 2015)。控制饲养试验(Wood, 2016; Wood et al., 2016)也指出了小鸡学习的两个主要限制因素:缓慢和流畅。观察视角的变化需要缓慢而平稳地进行,并遵循物理对象在世界上的时空属性。不过,鸡的大脑和视觉系统与人类非常不同,因此小鸡数据的相关性不是人类视觉系统的动物模型。相反,这些发现的相关性在于,它们清楚地显示了单个视觉对象的时间上持续的体验中可用的信息。这可能也暗示了某种目前仍未开发出的算法,可以从对极少(或许只有一个)对象的扩展视觉体验中迅速学会识别对象类别。

自我生成的视觉体验

一种方法是向他们询问不同的物体名称,看他们表现出怎样的喜好,另一种方法是给他们展示一个物体,看他们是否会自发地说出它的名字。因此,幼儿的对象名称词汇是衡量他们视觉识别对象能力的一个很好的指标。在一岁之前,对象名称的学习开始得非常缓慢,儿童对单个对象名称的知识逐渐增长,最初以错误为特征(例如, MacNamara, 1982; Mervis et al., 1992, 参见 Bloom, 2000)。大约 18 到 24 个月(不同的孩子学习时间不同),学习特性和学习速度会发生变化。大约 2 岁时,对象名称的学习变得似乎很容易,因为典型的成长中儿童只需要非常少的经验,通常只需要一个命名对象的单一经验,就而已适当地将名称推广到新实例(Landau et al., 1988; Smith, 2003)。从缓慢的渐进式学习向快速的几乎「一次性」学习的转变反映了学习本身所带来的内部机制的变化 (Smith et al., 2002)。然而,越来越多的证据表明,用于学习的视觉数据也发生了巨大的变化。

头部摄像头拍摄的场景往往杂乱不堪(Clerkin et al., 2017)。12 个月后的场景仍然经常是杂乱的,但是这些场景被一系列连续的场景打断。在这些场景中只有一个物体在视觉上占主导地位(例如 Yu and Smith, 2012)。场景构成的变化是幼儿动手能力发展的直接结果。早在一岁之前,婴儿就会伸手拿东西,但他们缺乏长时间玩耍所需要的躯干稳定性(Rochat, 1992; Soska et al., 2010)。他们缺乏旋转、堆叠或插入对象的动手能力(Pereira et al., 2010; Street et al., 2011)。此外,他们最感兴趣的是把物体放进嘴里,这并不是理想的视觉学习。因此,他们经常从远处看这个世界。而从远处看,这个世界是许多杂乱的东西。在他们的第一个生日之后,这一切都改变了。幼儿在积极地处理物体时,并会近距离地观察它们。这种动手活动会促进更高级的视觉对象记忆和区分(Ruff, 1984; Soska et al., 2010; Mhring and Frick, 2013; James et al., 2014a)以及对象名字学习 (例如 Yu and Smith, 2012; LeBarton and Iverson, 2013; James et al., 2014a)。

可能是这些进步的基础。

幼儿对物体的处理创造出的视觉场景比年纪更小的婴儿(Yu and Smith, 2012; Clerkin et al., 2017)和成人(Smith et al., 2011; Yu and Smith, 2012)的都要整洁。幼儿胳膊短,身体前倾,仔细看着手中的东西。在此过程中,它们创建一个对象填充视野的场景。这解决了许多基本问题,包括分割,竞争,以及参考对象不明。一项研究(Bambach et al., 2017)直接比较了一个常用的 CNN(Simonyan and Zisserman, 2014)在给定的由幼儿和成人头部摄像机图像组成的训练集(相同的真实世界事件)中学习识别物体的能力。该网络不提供待训练对象的裁剪图像,而是完整的场景,没有目标对象在场景中的相关位置信息。根据幼儿阶段画面学习到的系统比成人阶段的更健壮,并且表现出更好的泛化能力。这与当代计算机视觉的实践相吻合,计算机视觉的算法通常会在裁剪的图像或场景中加入边框,以指定要学习的对象。幼儿做到这一点的方式则是借助自己的手和头。

他们会生成单一物体的可变性很强的图像。图 4 显示了一个 15 个月大的幼儿在玩耍时生成的单个对象的视图(Slone et al., 审稿中)。在这项研究中,头戴式眼球追踪器被用来捕捉第一人称场景中的固定物体。一种单一的算法测量,掩膜取向(mask orientation,MO)被用来捕捉婴儿注视的物体的逐帧图像变异性:MO是图像中物体像素最细长轴的方向。至关重要的是,这不是一个面向真实世界或对象形状的方法,也不以任何直接的方式涉及的形状特性远端刺激,而是通过衡量近端图像属性的视觉系统来确定远端对象。主要结果是:15个月大的婴儿在玩玩具时所产生的MO变化量可以预测在6个月后,也就是21个月大的时候婴儿掌握物体名称词汇量。简而言之,更大的差异性导致更好的学习。在一项相关的计算研究(Bambach et al., 2017)中,研究人员们向 CNN 提供了一组训练集,这些训练集由父母或孩子佩戴的头部摄像机拍摄的共同玩耍事件的图像组成。相对于从父母佩戴的相机中看到的相同物体的变化较小的图像,从儿童佩戴的相机中看到的变化较多的物体图像导致了更强的学习能力和学习泛化能力。这些发现应该会改变我们对一次性学习的看法。幼儿对一个物体的视觉体验不是单一的体验,而是对同一事物的一系列非常不同的观察。这样的一系列对单个实例的不同观察能否引导年轻的学习者使用生成原则来识别某个类别所有成员(例如,所有的拖拉机)?

以上就是小编辛辛苦苦的内容,到这就结束了,我们也要分别了,虽然心里那么丝丝的不舍,但是不等于我们以后不会相见,或许大家在以后的日子里的某一个瞬间会想起小编的内容,会给大家带来一些正能量,小编的忙碌也就有所值了。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181231A16DH800?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券