首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习: Full Connection (全连接层)

深度学习: Full Connection (全连接层)

作者头像
JNingWei
发布2018-09-27 15:53:20
3.5K0
发布2018-09-27 15:53:20
举报
文章被收录于专栏:JNing的专栏JNing的专栏

Introduce

  • 全连接层也是一种卷积层。
  • 它的参数基本和卷积层的参数一样,只是它的卷积核大小和原数据大小一致。
  • 起到将学到的“分布式特征表示”映射到样本标记空间的作用。
  • 用 global average pooling 取代 FC,已经成为了大势所趋

Defect

摘自 全连接层的作用是什么

目前由于全连接层参数冗余(仅全连接层参数就可占整个网络参数80%左右),近期一些性能优异的网络模型如ResNet和GoogLeNet等均用全局平均池化(global average pooling,GAP)取代FC来融合学到的深度特征,最后仍用softmax等损失函数作为网络目标函数来指导学习过程。需要指出的是,用GAP替代FC的网络通常有较好的预测性能。

Note:

  • 那么为什么 全连接层参数冗余(仅全连接层参数就可占整个网络参数80%左右) 呢? 因为全连接层的卷积核横截面做得和 输入的 feature map 一样大。而常规卷积层的卷积核横截面只有一个小滑窗那么大。很明显,二者的参数数量级根本就不在一个level上。

Inner Product

在 Caffe 中,全连接层 的 type (层类型)Inner Product 。 输出一个简单向量(把输入数据blobs的width和height全变为1)。

Caffe学习系列(5):其它常用层及参数

layer {
  name: "ip1"
  type: "InnerProduct"
  bottom: "pool2"
  top: "ip1"
  param {
    lr_mult: 1
  }
  param {
    lr_mult: 2
  }
  inner_product_param {
    num_output: 500
    weight_filler {
      type: "xavier"
    }
    bias_filler {
      type: "constant"
    }
  }
}
  • lr_mult: 学习率的系数,最终的学习率是这个数乘以solver.prototxt配置文件中的base_lr。如果有两个lr_mult, 则第一个表示权值的学习率,第二个表示偏置项的学习率。一般偏置项的学习率是权值学习率的两倍。

必须设置的参数:

  • num_output: 过滤器(filfter)的个数

其它参数:

  • weight_filler: 权值初始化。 默认为“constant”,值全为0,很多时候我们用”xavier”算法来进行初始化,也可以设置为”gaussian”
  • bias_filler: 偏置项的初始化。一般设置为”constant”,值全为0。
  • bias_term: 是否开启偏置项,默认为true, 开启
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017年12月21日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Introduce
  • Defect
  • Inner Product
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档