前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ImageNet Classification with Deep Convolutional Neural Networks笔记(摘要版)

ImageNet Classification with Deep Convolutional Neural Networks笔记(摘要版)

作者头像
深度学习思考者
发布2019-05-27 19:03:58
4360
发布2019-05-27 19:03:58
举报

Contents 1.全部架构 2.降低过拟合 3.学习细节 4.结果 5.讨论


本笔记为论文的摘要版,详细数据和论文详解见: http://www.gageet.com/2014/09140.php

本文训练了一个深度卷积神经网络,来将ILSVRC-2010中1.2M的高分辨率图像数据分为1000类。测试结果,Top-1和Top-5的错误率分别为37.5%和17%,优于当时最优的水平。后来作者利用该种模型的变体参与了ILSVRC-2012比赛,以Top-5错误率15.3%遥遥领先亚军的26.2%。最后文章发表于NIPS 2012。

该神经网络包含60M参数和650K神经元,用5个卷积层(其中某些层与亚采样层连接)、三个全连接层(包括一个1K门的输出层)。为使训练更快,文章采用非饱和神经元,包括了大量不常见和新的特征来提升性能,减少训练时间(详见:三 结构)。并利用了一个高效的GPU应用进行卷积运算。在全连接层中,为避免过拟合,文章采用了一种叫做“dropout”的方法(详见:四 降低过拟合)。

最终网络包含5层卷积层和3层全连接层。而这个层深度很重要,因为移除任何一个卷积层,将会导致更差的结果。网络大小主要受限于GPU的内存和训练时间。实验证明,本网络在有两个GTX 580 3GB GPU的机器上训练了5-6天。实验结果显示,如果GPU更快或数据集更大,实验结果将会更好。

具体的实现上,这篇文章在架构上面的一些改进在于:

1.ReLU非线性特征

一句话概括:不用simgoid和tanh作为激活函数,而用ReLU作为激活函数的原因是:加速收敛。

因为sigmoid和tanh都是饱和(saturating)的。何为饱和?个人理解是把这两者的函数曲线和导数曲线plot出来就知道了:他们的导数都是倒过来的碗状,也就是,越接近目标,对应的导数越小。而ReLu的导数对于大于0的部分恒为1。于是ReLU确实可以在BP的时候能够将梯度很好地传到较前面的网络。

2.在多GPU上训练

在每个GPU上放1/2的神经元,但只有某些层才能进行GPU间的通信,在连接与不连接的平衡中找到性能与准确的平衡点。

3.局部响应标准化

一句话概括:本质上,这个层也是为了防止激活函数的饱和的。

个人理解原理是通过正则化让激活函数的输入靠近“碗”的中间,从而获得比较大的导数值。所以从功能上说,跟ReLU是重复的。

不过作者说,从试验结果看,LRN操作可以提高网络的泛化能力,将错误率降低了大约1个百分点。

4.重叠采样

一句话概括,从试验结果看,作者认为Overlapping之后,能够减少网络的过拟合。将Top-1和Top-5的错误率分别降低了0.4%和0.3%(与s=2,z=2相比)。

全部架构

网络包括八个有权值的层。前五层是卷积层,剩下的三层是全连接的。最后一个全连接层是输出层。第二、四、五个卷积层只与上层在同一个GPU上的Kernel Map(下文称特征图)连接,第三个卷积层与第二个卷积层的所有特征图连接。全连接层的神经元与上一层的所有神经元连接(即改进二)。响应标准化层在第一和第二个卷积层之后(改进三),降采样层在响应标准化层和第五个卷积层之后(改进四)。而ReLU非线性公式在每个卷积层和全连接层都有应用(改进一)。

降低过拟合

1.数据增强

通过提取图片的5个224*224切片(中间和四角)和它们的水平翻转来做出预测,预测结果为十次预测的平均值。

第二种数据增强的方式为改变训练图像RGB通道的强度,对RGB空间做PCA,然后对主成分做一个(0, 0.1)的高斯扰动。结果让错误率又下降了百分一。

2.Dropout

将某些层隐藏,按照50%的概率输出0。这些隐藏的神经元不会参加CNN的forward过程,也不会参加back propagation过程。

测试中,我们在前两个全连接层使用了该方法,利用他们所有的神经元,但其输出都乘以了0.5。没有dropout,我们的网络将会产生严重的过拟合。但dropout也使达到收敛的迭代次数增加了一倍。

学习细节

在模型中,0.9倍动量,权值衰减为0.0005,虽然权值衰减值很小,但是对于学习很重要,它减小了模型了训练错误概率。

结果

在ILSVRC-2012测试中CNNs方法Top-5错误率为18.2%,而5种相似CNN结构平均结果的Top-5的错误率为16.4%,将两个预处理后的CNN和上述5CNN平均后的结果进行平均化最后得到的错误率为15.3%。而当时第二的队伍利用SIFT+FVs的错误率为26.2%。

讨论

每移走一层中间的层,Top-1的错误率将会增高2%。

但为了简化实验,文章没有使用任何无监督学习。如果那样,那么在更大规模的网络和更长时间训练的情况下,我们得结果就能得到提高。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2015年07月10日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档