TensorFlow从1到2 | 第三章:深度学习革命的开端:卷积神经网络

关于全连接神经网络(Full Connected Neural Network,FC)的讨论已经说的不少了,本篇将要介绍的是,从2006年至今的神经网络第三次浪潮中,取得巨大成功、处于最核心位置的技术——卷积神经网络,Convolutional Neural Network(CNN)。

视觉皮层,来源:https://lilianweng.github.io/lil-log/2017/06/21/an-overview-of-deep-learning.html

一战成名

2012年AlexNet在ImageNet上一战成名,点爆了深度学习革命,这是历史性的时刻。其中

的故事,推荐朱珑(Leo Zhu)的《深度学习三十年创新路》(http://36kr.com/p/533832.html),讲的很精彩,下面的引用部分就是片段节选。

标志性事件是,2012年底,Geoff Hinton的博士生Alex Krizhevsky、Ilya Sutskever(他们研究深度学习时间并不长)在图片分类的竞赛ImageNet上,识别结果拿了第一名。其实类似的比赛每年很多,但意义在于,Google团队也在这个数据集上做了测试(非公开的,Google没有显式参加学术界的“竞赛”),用的也是深度学习,但识别精度比Geoff Hinton的团队差了很多,这下工业界振奋了。

ImageNet

如上图所示,2012年AlexNet的惊艳之处在于,它比上一年冠军的错误率25.8%低了近10个百分点。正是这前所未有的进步,引领人们穿透迷雾,望见了未来。

但更有意思的是(很有启发性并值得思考),Alex Krizhevsky 和 Geoff Hinton的竞赛用的正是 Yann Lecun 发明的卷积神经网,但结果刚出来时(实现细节还没有公布),Yann Lecun和他的NYU实验室成员甚至没法重复Geoff Hinton的结果。自己发明的算法,使用结果不如另外一个组。这下炸了锅,Yann Lecun开了组会,反思的主题是“为什么过去两年我们没有得到这样的成绩” 。

黑马AlexNet并不“新”,如上面节选所说,它其实脱胎于1998年即14年前就被Lecun提出的卷积神经网络LeNet-5,改动非常有限:

  • 采用ReLU而非S型神经元;
  • 网络更深;
  • 训练数据量更大;
  • 采用GPU训练;

前两点与网络架构相关,虽然ReLU的应用贡献良多,但就整个算法框架来说它们都算不上有实质性的改变。而后两点或许才是更根本的,得益于大数据和摩尔定律,AlexNet获得了可以用更多数据来训练网络所需要的算力。

而LeNet-5在当时的数据与算力条件下,显然不如其他的机器学习算法(核方法、图模型、SVM等)更有前景,冰封十余载才获得了认可。

神经科学的启示

就像20世纪40、50年代,受神经科学发现的启示,人类构建了人工神经元一样,1959年Hubel和Wiesel对哺乳动物视觉皮层机理的发现,让人类再次受到造物主的馈赠,卷积神经网络就是最成功的应用之一。

哈佛大学的神经生理学博士Hubel和Wiesel观察了猫大脑中的单个神经元如何响屏幕上的图像(https://www.youtube.com/watch?v=8VdFf3egwfg),他们发现处于视觉系统较前面区域的神经元对特定的光模式反应强烈,而对其他模式完全没有反应,这个部分被称为初级视觉皮层,Primary Visual Cortex,也被称为V1。他们凭借这个开创性的研究,在1981年获得了诺贝尔生理学或医学奖。

V1的发现开启了对人脑视觉系统进一步的认知,如本篇最前面引用的那幅图中所绘制的,当眼睛查看外界对象时,信息从视网膜流到V1,然后到V2(Secondary Visual Cortex),V4,之后是IT(Inferior Temporal Gyrus,颞下回)。哺乳动物的视觉系统是分层递进的,每一级都比前一级处理更高层次的概念:

  • V1:边缘检测;
  • V2:提取简单的视觉要素(方向、空间、频率、颜色等)
  • V4:监测物体的特征;
  • TI:物体识别;

卷积神经网络就是根据V1的3个性质设计的:

  • 空间映射:根据V1的空间映射特性,卷积神经网络中的各层都是基于二维空间结构的(末端的全连接层除外);
  • 简单细胞:V1中有许多简单细胞(simple cell),它们具有局部感受野,卷积网络中的卷积核据此设计;
  • 复杂细胞:V1中有许多复杂细胞(complex cell),用于响应简单细胞检测的特征,且对于微小偏移具有不变形,这启发了卷积网络中的池化单元;

V1其后的视觉区域,其实与V1具有相同的原理,特征检测与池化策略反复执行。同样,卷积网络架构的设计,也是卷积层和池化层重复叠加,形成深度层级。具有开创性的现代卷积网络LeNet-5,架构如下图所示:

LeNet-5

迂回前进的历史

卷积神经网络并不是一夜之间发明出来的,从2012年AlexNet开始追溯的话,还需要更多历史性时刻的支撑,即使是最早的卷积神经网络出现,也在Hubel和Wiesel实验的二十年后了。尽管神经科学给出了启示,却并没有告诉我们该如何训练卷积网络:

  • 1980年,日本科学家Fukushima构建了卷积神经网络,但当时反向传播算法还未准备好;
  • 1986年,Hinton成功将反向传播算法用于训练神经网络;
  • 1989年,LeCun开始基于反向传播算法训练二维卷积网络;
  • 1998年,LeCun提出第一个正式的卷积神经网络LeNet-5;

历史就是这样迂回前进的,一开始是各个独立、随机的小支流,随着时间的推进,最终汇聚在一起产生革命性的时刻。

原文发布于微信公众号 - 人工智能LeadAI(atleadai)

原文发表时间:2017-10-25

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏IT派

推荐|14种模型设计帮你改进你的卷积神经网络(CNN)!

如果你觉得好的话,不妨分享到朋友圈。 摘要: 这14 种原创设计模式可以帮助没有经验的研究者去尝试将深度学习与新应用结合,对于那些没有机器学习博士学位的人来说...

3656
来自专栏吉浦迅科技

(图解)机器学习的衰颓兴盛:从类神经网络到浅层学习

1950年代计算机发明以来,科学家便希冀着利用计算机创造出人工智能;然而,当时的硬件效能低落、数据量不足,随着通用问题解决机、日本第五代计算机等研究计划的失败,...

38711
来自专栏人工智能头条

拓扑数据分析在机器学习中的应用

39012
来自专栏新智元

周志华作序!高徒魏秀参新书《解析深度学习》试读(评论赠书)

“市面上深度学习书籍已不少,但专门针对卷积神经网络展开,侧重实践又不失论释者尚不多见。本书基本覆盖了卷积神经网络实践所涉之环节,作者交代的若干心得技巧亦可一观,...

1814
来自专栏AI科技大本营的专栏

忘掉PS吧!欢迎进入修图的神经网络时代

左边是原图,右边是修图。是不是觉得美女与右边图片的背景搭在一起,更有动感和帅气。可是不会修图啊,肿么办? 今天让我们来看一个有意思的AI应用,让不会PS的你,...

4305
来自专栏机器之心

学界 | 伯克利提出强化学习新方法,可让智能体同时学习多个解决方案

选自BAIR Blog 作者:Haoran Tang、Tuomas Haarnoja 机器之心编译 参与:Panda 强化学习可以帮助智能体自动找到任务的解决策...

3027
来自专栏TensorFlow从0到N

TensorFlow从1到2 - 3 - 深度学习革命的开端:卷积神经网络

关于全连接神经网络(Full Connected Neural Network,FC)的讨论已经说的不少了,本篇将要介绍的是,从2006年至今的神经网络第...

4567
来自专栏新智元

分分钟带你杀入Kaggle Top 1%,8000字实战分享

【新智元导读】参加Kaggle常常会获得很多启发,与来着世界各地的队伍进行厮杀的刺激更让人欲罢不能。本文内容包括了Kaggle比赛介绍,以及来自Kaggle T...

46314
来自专栏人工智能LeadAI

用讲故事的办法帮你理解SMO算法

SVM通常用对偶问题来求解,这样的好处有两个:1、变量只有N个(N为训练集中的样本个数),原始问题中的变量数量与样本点的特征个数相同,当样本特征非常多时,求解难...

4117
来自专栏机器之心

解读实践中最广泛应用的分类模型:朴素贝叶斯算法

机器之心专栏 作者:伏宸实验室研究员Windson Yang 贝叶斯模型在机器学习以及人工智能中都有出现,cherry 分类器(https://github.c...

3354

扫码关注云+社区

领取腾讯云代金券