前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >CS231n笔记:通俗理解CNN

CS231n笔记:通俗理解CNN

作者头像
mathor
发布2019-12-30 15:59:19
7090
发布2019-12-30 15:59:19
举报
文章被收录于专栏:mathormathormathor

卷积神经网络的层级结构

cs231n课程里给出了卷积神经网络各个层级结构,如下图:

上图中CNN要做的事情是:给定一张图片,是车是马还是飞机未知,现在需要模型判断这张图片里具体是一个什么东西

最左边是

  • 数据输入层,对数据做一些处理,比如去均值(把输入数据各个维度都中心化为0,避免数据过多偏差,影响训练效果)、归一化(把所有的数据都归一到同样的范围)、PCA/白化等等。CNN只对训练集做“去均值”这一步

中间是

  • CONV:卷积层(Convolutional Layer),线性乘积求和
  • RELU:激励层,ReLU是激活函数的一种
  • POOL:池化层(Pooling Layer),简言之,即取区域平均值或最大(最小)值

最右边是

  • FC:全连接层(Fully-Connected Layer)

卷积计算过程

对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作,也是卷积神经网络的名字来源

举个具体的例子。比如下图中,图中左边部分是原始输入数据,图中中间部分是滤波器filter,图中右边是输出的新的二维数据,右上角是具体的计算过程

在下图对应的计算过程中,左边是图像输入,中间部分就是滤波器filter(带着一组固定权重的神经元),不同的滤波器filter会得到不同的输出数据,比如颜色深浅、轮廓等。如果想提取图像的不同特征,则可以用不同的滤波器

在CNN中,滤波器filter(带着一组固定权重的神经元)对局部输入数据进行卷积计算。每计算完一个数据窗口内的局部数据后,数据窗口不断平移滑动,直到计算完所有数据。这个过程中,有这么几个参数:

  • 深度depth:即神经元个数,决定输出的depth厚度。同时代表滤波器个数
  • 步长stride:决定滑动多少步可以到边缘
  • 填充值zero-padding:在外围边缘补充若干圈0,方便从初始位置以步长为单位可以刚好滑倒末尾位置,通俗地讲就是为了总长能被步长整除

CS231n课程中有一张卷积动图

从图中可以看到:

  • 有两个神经元,即两个滤波器,depth=2
  • 数据窗口每次移动2个步长,取3*3的局部数据,即stride=2
  • zero-padding=1

然后分别以两个滤波器filter为轴滑动数组进行卷积计算,得到两组不同的结果

  • 左边是输入(7*7*3中,7*7代表图像的长宽,3代表RGB三个颜色通道)
  • 中间部分是两个不同的滤波器Filter w0、Filter w1
  • 最右边则是两个不同的输出

随着左边数据窗口的平移滑动,滤波器Filter w0 / Filter w1对不同的局部数据进行卷积计算

值得一提的是:左边数据在变化,每次滤波器都是针对某一局部的数据窗口进行卷积,这就是所谓的CNN中的局部感知机制。打个比方,滤波器就像一双眼睛,人类视角有限,一眼望去,只能看到这世界的局部。如果一眼就看到全世界,你会累死,而且一下子接受全世界所有信息,你大脑接收不过来

与此同时,数据窗口滑动,导致输入在变化,但中间滤波器Filter w0的权重(即每个神经元连接数据窗口的权重)是固定不变的,这个权重不变即所谓的CNN中的参数(权重)共享机制

最后提一点,从图上我们可以看到,每个filter下面都有一个bias,因此要在原来的内积计算结束后,再加上这个bias,得到最终的对应位置值

激励层与池化层

激励层

现在绝大部分神经网络采用的激励函数都是Relu,它的优点是收敛快,求梯度简单,其图形表示如下

池化层(Pooling Layer)

池化,简言之,就是取某个区域的平均值或最大(最小)值,如下图所示

上图所展示的是取区域最大值,即左上角2x2的矩阵中6最大,右上角2x2的矩阵中8最大,左下角2x2的矩阵中3最大,右下角2x2的矩阵中4最大,所以得到上图右边部分的结果:6 8 3 4

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 卷积神经网络的层级结构
  • 卷积计算过程
  • 激励层与池化层
    • 激励层
      • 池化层(Pooling Layer)
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档