如何计算SGD的训练精度?您是否使用训练网络时使用的批处理数据来计算它?还是使用整个数据集?(每次批量优化迭代)
我尝试使用训练网络时使用的批处理数据计算每次迭代的训练精度。它几乎总是给我100%的训练准确率(有时是100%,90%,80%,总是10%的倍数,但第一次迭代就给了我100%)。这是因为我是在相同的批处理数据上计算精度,我用这些数据训练它进行迭代吗?或者是我的模型过度拟合,它立即给了我100%的结果,但验证准确率很低?(这是这里的主要问题,如果这是可以接受的,或者模型有问题)
下面是我使用的超参数。
batch_size = 64
kernel_size = 60 #from 60 #optimal 2
depth = 15 #from 60 #optimal 15
num_hidden = 1000 #from 1000 #optimal 80
learning_rate = 0.0001
training_epochs = 8
total_batches = train_x.shape[0] // batch_sizehttps://stackoverflow.com/questions/44469083
复制相似问题