吴恩达老师课程原地址[1]
参考文献 [LeNet]--Lécun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324. [AlexNet]--Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[C]// International Conference on Neural Information Processing Systems. Curran Associates Inc. 2012:1097-1105. [VGG-16]--Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. Computer Science, 2014.
的单通道灰度图像
的卷积核,步长为 1,Padding 为 0,图像尺寸缩小到
的平均池化窗口,其中步长为 2。当时更趋向于使用平均池化方法,现在更倾向于使用最大池化方法。--输出的结果是一个
的图像。
的卷积核,步长为 1,Padding 为 0,图像尺寸缩小到
。当时几乎不使用 Padding 填充的方法,所以每次池化后特征图大小都会变小。
的平均池化窗口,其中步长为 2。则输出的结果是一个
的图像。
的图片作为输入,实际上原文使用的图像是
作为输入,但是如果你尝试输入会发现
这个尺寸更好一些。
的卷积核,步幅为 4,因此图像尺寸缩小到
,然后使用一个
的池化窗口构建最大池化层,步幅为 2,则此时特征图尺寸缩小为
。
的卷积核,使用“SAME”模式进行填充,则得到
的特征图。接着使用
的池化窗口构建最大池化层,步长为 2,则此时特征图尺寸缩小为
的卷积核,使用“SAME”模式进行填充,则得到
的特征图。接着使用
的池化窗口构建最大池化层,步长为 2,则此时特征图尺寸缩小为
的卷积核,使用“SAME”模式进行填充,则得到
的特征图。连续对特征图进行三次卷积操作,均使用“SAME”模式,卷积核个数分别为“384”,“384”,“256”之后使用
池化窗口的池化层对其进行池化操作,且池化步长为 2.最终得到
大小的特征图。
[lrn 局部响应归一化示意图]
的卷积核,步幅为 1,构建卷积层,Padding="SAME",然后使用
的卷积核,步幅为 2,构建最大池化层。
的图片,使用 64 个上述卷积核进行两次卷积操作,得到
的特征图,再使用上述池化方式对其进行池化操作,得到
的特征图。再对其使用 128 个上述卷积核进行两次卷积操作后得到
的特征图。接着使用上述池化方式对其进行池化操作,得到
的特征图。再使用 256 个上述卷积核对特征图进行三次卷积操作得到
的特征图。再池化,512 个卷积核卷积三次,池化,512 个卷积核卷积三次,池化。最终得到
结构的特征图,然后进行全连接操作.后接两个具有 4096 个节点的全连接层,最后接上 Softmax 节点。具体网络结构如下图所示:
[1]
吴恩达老师课程原地址: https://mooc.study.163.com/smartSpec/detail/1001319001.htm