在具有n个神经元的卷积层中,训练尺寸为h x w x c(高度x宽度x通道)的输入,c通常为3 (RGB),训练大小为k x k(和n偏置值)的n x c核。然后输出是h_new x w_new x n,所以输出的深度基本上与第一层中神经元的数量一致。h_new和w_new依赖于卷积中的填充和步长。这对我来说是有意义的,我也通过自己编码卷积和求和来检查它,并将结果与仅包含这一<em
下面是Datacamp关于使用卷积自动编码器进行分类here的教程。我在教程中了解到,我们只需要将自动编码器的头部(即编码器部分)堆叠到一个完全连接的层上即可进行分类。在堆叠之后,得到的网络(卷积自动编码器)被训练两次。第一种方法是将编码器的权重设置为false,如下所示: for layer in full_model.layers[0:19]:
layer.trainable = False 然后重新设置