http://blog.csdn.net/u011239443/article/details/79057016
过多的权重参数矩阵让计算、内存消耗使得传统神经网络不能接受。
该过滤器为竖直边缘过滤器。为什么叫做竖直边缘呢?我们再用该过滤器举个例子:
通过过滤器,能过滤检测出竖直边缘。
这些过滤器的中间权值比较大,使得中心点附近的像素更具有代表性,这样会有更好的鲁棒性。
在CNN中,我们会把过滤器中的各个权值作为参数来训练。这样使得过滤器不仅仅能检测竖直或者水平的边缘特征,而且可以检测到角度旋转后的复杂边缘。
过滤器有个缺点就是会把矩阵的大小减少,使用 Padding,将图像周边都填充0,就可以解决这个问题:
过滤器每次移动可以不一定的一步,我们来看下步长为2的情况:
过滤后矩阵边长的公式为:
结合例子整体的讲解下一次卷积的过程。如我们有 6 * 6 * 3(3是RGB,这里称作信道) 的图片,那么我们的过滤器会是 f * f * 3,过滤器的信道数要和原来图片相同。过滤器的每个信道在原图与之对应的信道上进行过滤,这里就会生成 4 * 4 * 3 的图(图中没有画出来),生成图各个信道的图的对应位置相加,然后加上偏置项b,讲累加的结果传入激活函数,就得到了的 4 * 4 的图。不同过滤器得到的图作为某个信道的图堆积成最后的结果,也就是说 有 n 个过滤器,那么过滤得到的图就有 n 个信道。
可以看到,我们训练的是过滤器的权重矩阵W,无论原图变得再大,我们需要训练的矩阵W大小是不变的。
首先如我们前面所说的,无论原图变得再大,我们需要训练的矩阵W大小是不变的,这可以大幅度的减少需要训练的参数。