参数共享是指在一个模型的多个函数中使用相同的参数.
传统神经网络,权重矩阵每个元素只用一次.而用卷积,用于一个输入的权重也会绑定在其他权重上.相当于学会一套权重,应用于所有输入位置上....公式表示就不展示了,用实际例子说明一下:
一维情况,比如时间序列,通过卷积可以得到由输入中出现不同特征的时刻组成的时间轴.如果把一个输入事件延后,输出中仍然会有相同表示,只是时间延后了
二维,卷积产生一个二维映射表明某些特征在输入中出现的位置....如果移动输入中的对象,它的表示也会在输出中移动同样的量....例如我们想对不同大小的图像进行分类时,分类层的输入必须是固定的大小,而这通常通过调整池化区域的偏置大小来实现,这样分类层总是能接收到相同数量的统计特征而不管最初的输入大小了。...因为卷积网络通常使用多通道的卷积,所以即使使用了核翻转,也不一定保证网络的线性运算是可交换的。