以下内容来自Keras教程
这种行为是在TensorFlow 2.0中引入的,目的是使layer.trainable = False能够在convnet微调用例中产生最常见的行为。
为什么我们要在微调卷积神经网络时冻结这一层?是因为tensorflow角的某些机制,还是由于批处理的规范化算法?我自己做了一个实验,我发现如果可训练不被设置为错误,这个模型往往会导致灾难性的忘记以前学过的东西,并且在最初的几个时代还会有很大的损失。原因是什么?
发布于 2020-07-21 09:46:29
https://stackoverflow.com/questions/63016740
复制