我正在做一个关于通过深入学习的图像处理的项目,我面临的问题是验证数据集的度量标准与训练数据集的度量标准有很大的不同。差别如下所示。
对于上层图(训练数据集),绿色、蓝色、红线分别表示ms、生成器损失和鉴别器丢失。
对于较低的图(验证数据集),蓝色、灰色、橙色的线条分别表示ms-ssim、生成器损失和鉴别器丢失。
这两个数据集之间唯一的区别是验证集是未处理的(1200*800),但是训练集是裁剪的(256*256)。
接下来,我尝试使用相同的设置裁剪验证集。正如我所猜测的那样,两个数据集的指标变得相似了。但是,由于没有裁剪真实的映像(测试数据集),这些度量似乎毫无用处。
我的问题是:
发布于 2020-01-29 23:00:01
知道确切的任务是什么会很有帮助。你想解决什么,你的数据是什么样子.。
总的来说,这真的很重要。您的原始输入大小为1200x800,并将其裁剪到256x256。最后,您从1200x800图像中提取了一个256x256区域。你在哪里和什么地方收割,只是随机的或某种逻辑的?
这样您就完全改变了数据分布。原始图像将包含更多的信息。根据裁剪的方式,网络可能会看到以前从未见过的信息。你也会从一个平方输入变成一个矩形输入。许多模型甚至在这样不同的输入大小上根本不起作用。
如果您只能对裁剪的图像进行培训,您也必须对验证和测试集进行裁剪,以获得可比较的结果。
从所给出的信息来看,它看起来一点也不像过度拟合,更像是图像裁剪带来的一个大的域转移问题。
https://stackoverflow.com/questions/59980076
复制相似问题