专栏首页火星娃统计深度学习-卷积神经网络原理

深度学习-卷积神经网络原理

卷积神经网络原理

概述

卷积神经网络又称作(ConvNet, CNN),它的出现解决了人工智能图像识别的难题,图像识别数据量大,并且在识别的过程中很难保留原有的信息,因此卷积的作用就体现在这里。比如我们经常说的像素,100W像素,那就是,1000X1000个像素点,同时每个像素点上有3个颜色参数,分别为红、绿、蓝。那么处理一张100w像素的图片,就需要输入300w个参数,这还是100w像素的图片,现在看看自己手机的照片,随便一张都是千万级别的,因此图片数据需要降维。

卷积神经网络的构成

典型的 CNN 由3个部分构成:

  1. 卷积层
  2. 池化层
  3. 全连接层

其中卷积层用来提取图像的局部信息,池化层用来对数据进行降维,全连接层为普通的神经网络,用于输出想要的结果。 从整体的结构上看,卷积神经网络类似与我们大脑对图像的处理过程,我们在观察一个事物或者一个人的时候,总是先从局部提取一些关键的信息,比如现在脑海里想一个人的头像,这个人的脸并不是全部很清晰的,但是他脸上的关键信息是很清楚的,比如孙红雷。

卷积运算

I为输入的信息,K为卷积核(3X3),convolved为卷积结果,卷积核通过不断的滑动最终生成最后的卷积结果。比如卷积结果的左上角数字4,就是通过i的阴影部分和k进行逐元素相乘得到。同时在卷积的过程中需要注意滑动的步幅,这里的步幅为1. 在实际应用中,可以使用不同的卷积核,卷积出的值越大,保留的信息越多。

池化运算

池化运算就是下采样的过程,通过卷积之后得到的图片虽然缩小了,但是还是很大,因为卷积核比较小,为了降低数据维度,因此采用下采样的方式,如图所示,一开始的图片为44的图片,通过22的采样窗口,将数据压缩为2*2的数据,这里每次采样采用的最大池化原则,同时在实际中也存在平均采样的方法。

循环

前面进行了一个卷积和池化的过程,在实际的人工智能的操作中,研究者通常采用多个卷积和池化操作,最后使得数据达到要求的大小进行运算。

全连接层

这部分的就是卷积神经网络的神经网络部分了,通过前面的卷积和池化之后,图片已经缩小的足够进行神经网络运算了,对于神经网络的部分我后面会专门进行一次学习,这里不过介绍

卷积输出大小计算

N = (W − F+2P)/S + 1

  • 输入图片大小 W×W
  • Filter大小 F×F 即卷积核大小
  • 步长 S
  • padding的像素数 P 这里是指的填充的图像圈数,目的是为了防止图像丢失边际信息和方式过快变小。

比如 32x32大小的图片,卷积核大小为5x5,卷积核个数为6,那么它的输出大小为 N=32-5+1= 28,这样就形成了28x28x6的神经元。这个处理其实就是经典的LeNet5神经网络的C1层

上图就是经典的LeNet5的网络

  • C1层-卷积层
  • S2层-池化层:在C1层进行卷积之后,随后对C1的结果进行下采样,使用的是2*2的采样区域,生成14x14x6的输出。
  • C3层-卷积层 生成10x10x16的输出
  • S4层-池化层 生成5x5x16的输出
  • C5层-卷积层 生成1x1x120的输出
  • F6层-全连接层 F6层有84个节点
  • Output层-全连接层 共有10个节点,分别代表数字0到9

LeNet-5是一种用于手写体字符识别的非常高效的卷积神经网络,也是比较经典的神经网络学习架构,后续会专门对这个结构进行详细解析和重现。

结束语

love&peace

本文分享自微信公众号 - 火星娃统计(sunqi_py),作者:人厨子

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2020-09-06

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 深度理论VGG-NET 网络

    VGG名字来源于Visual Geometry Group, Department of Engineering Science, University of ...

    用户7760819
  • R海拾遗-单项重复测量方差分析

    对于单项的方差分析,如果不满足上述假设,使用Friedman test进行,对于双向、三向的方差分析没有替代的非参数方法,只能通过装换数据

    用户7760819
  • python苦短-爬取音乐

    使用到的库 requests: 爬虫使用到的请求库 jsonpath: 处理json数据的第三方库 os: python文件系统操作的库 urlretrieve...

    用户7760819
  • 轻量级神经网络系列——MobileNet V1

    自从2017年由谷歌公司提出,MobileNet可谓是轻量级网络中的Inception,经历了一代又一代的更新。成为了学习轻量级网络的必经之路。

    小草AI
  • 思考: 根据 图片数据集 规律性 灵活设计 卷积结构

    先用 大卷积核 对输入的整张 feature map 进行第一轮的常规卷积:

    JNingWei
  • 深度学习: 感受野 (receptive field)

    感受野的计算 主要与 卷积层 和 池化层 的 窗口大小 (size)、移动步长 (stride) 以及 填充 (padding) 有关。

    JNingWei
  • [深度学习]Charpter 9:卷积网络

    卷积网络convolutional network,也叫做卷积神经网络convolutional neural network CNN 专门用来处理类似网格结构...

    wOw
  • 深度学习(二)神经网络中的卷积和反卷积原理

    原文地址:https://www.cnblogs.com/DOMLX/p/9579392.html

    徐飞机
  • 推荐 | 深度学习反卷积最易懂理解

    普通图像反卷积,跟深度学习中的反卷积是一回事吗?别傻傻分不清!其实它们根本不是一个概念

    OpenCV学堂
  • 【Pytorch 】笔记五:nn 模块中的网络层介绍

    疫情在家的这段时间,想系统的学习一遍 Pytorch 基础知识,因为我发现虽然直接 Pytorch 实战上手比较快,但是关于一些内部的原理知识其实并不是太懂,这...

    阿泽 Crz

扫码关注云+社区

领取腾讯云代金券