(Tensor),而核通常是由学习算法优化得到的多维数组的参数....传统神经网络,权重矩阵每个元素只用一次.而用卷积,用于一个输入的权重也会绑定在其他权重上.相当于学会一套权重,应用于所有输入位置上.
参数共享的形式使得神经网络具有对平移等变性....弱先验具有较高的熵值,例如方差很大的高斯分布。这样的先验允许数据对于参数的改变具有或多或少的自由性
强先验具有较低的熵值,例如方差很小的高斯分布。这样的先验在决定参数最终取值时起着更加积极的作用。...另外,输入通常也不仅仅是实值的网格,而是由一系列观测数据的向量构成的网格。比如图像,除了宽高维度,还有颜色通道....只有当其中的每个运算的输出和输入具有相同的通道数时,这些多通道的运算才是可交换的
零填充(英文和TF中参数一样,记住对编程有帮助):
有效卷积 valid
无论怎样都不使用零填充.输出像素更加规范,但导致每一层网络都在减小