前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >卷积神经网络细节(激励函数,池化,预处理等)

卷积神经网络细节(激励函数,池化,预处理等)

作者头像
李智
发布2019-05-26 15:19:43
6920
发布2019-05-26 15:19:43
举报
文章被收录于专栏:李智的专栏李智的专栏

结合文献『Deep Learning for Computer Vision』, 以下讲讲卷积神经网络的一些注意点和问题。

  • 激励函数,要选择非线性函数,譬如tang,sigmoid,rectified liner。在CNN里,relu用得比较多,原因在于:(1)简化BP计算;(2)使学习更快。(3)避免饱和问题(saturation issues)
  • 池化(Pooling):其作用在于(1)对一些小的形态改变保持不变性,Invariance to small transformations;(2)拥有更大的感受域,Larger receptive fields。pooling的方式有sum or max。
  • Normalization:Equalizes the features maps。它的作用有:(1) Introduces local competition between features;(2)Also helps to scale activations at each layer better for learning;(3)Empirically, seems to help a bit (1–2%) on ImageNet
  • 训练CNN:back-propagation;stochastic gradient descent;Momentum;Classification loss,cross-entropy;Gpu实现。
  • 预处理:Mean removal;Whitening(ZCA)
  • 增强泛化能力:Data augmentation;Weight正则化;在网络里加入噪声,包括DropOut,DropConnect,Stochastic pooling。
    • DropOut:只在全连接层使用,随机的将全连接层的某些神经元的输出置为0。
    • DropConnect:也只在全连接层使用,Random binary mask on weights.
    • Stochastic Pooling:卷积层使用。Sample location from multinomial。
  • 模型不work,怎么办?结合我自身的经验,learning rate初始值设置得太大,开始设置为0.01,以为很小了,但实际上0.001更合适。
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016年10月27日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档