我使用keras创建了一个模型,并使用train_on_batch对其进行了培训。为了检查模型是否做了它应该做的事情,我使用predict_on_batch方法重新计算了训练阶段前后的损失。但是,正如你在阅读标题时所猜测的那样,我没有相同的输出损失。下面是一个基本代码来说明我的问题:
from tensorflow.keras.models import Sequ
之前,我实现了2个CNN模型(Resnet50v2和inceptionResNetv2),数据集包含3662张图像。在Google colab的训练和验证过程中,这两种方法都工作得很好。现在我再次重新运行完全相同的代码,每个时期的训练样本本身减少到每个时期只有92个样本(在2929个/时期之前)。两个型号使用不同的笔记本,它们现在都是这样的。我想这可能是因为内存有限(在使用google c