首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >基于随机裁剪的数据增强方法

基于随机裁剪的数据增强方法
EN

Stack Overflow用户
提问于 2017-03-05 06:57:07
回答 1查看 1K关注 0票数 2

我正试图在Caffe上训练我自己的网络,类似于Imagenet模型。但我对作物层感到困惑。直到我在Imagenet模型中了解到作物层之前,在训练过程中会随机选取227x227图像作物并对网络进行训练。但是在测试过程中,我们需要中心227x227图像裁剪,难道我们在从256x256图像中裁剪中心227x27图像时,不是从图像中丢失信息吗?第二个问题是,我们如何确定训练期间收获的作物数量?

同时,我训练了相同的网络(相同的层数,相同的卷积大小,FC神经元会有明显的差异),首先从256×256图像中获取227x227作物,第二次从256×256图像中获取255x255作物。根据我的直觉,255x255作物的模型应该给我最好的结果。但是我的227x227图像的精确度越来越高,有人能解释我背后的直觉吗?还是我做错了什么?

EN

回答 1

Stack Overflow用户

发布于 2017-08-08 16:13:42

你的观察并不是针对卡菲的。

在培训和测试期间,裁剪图像的大小必须是相同的(在您的例子中是227x227),因为上游网络层(卷积等)需要图像是相同大小的。在训练期间随机作物是因为你想要数据增强。但是,在测试期间,您希望针对标准数据集进行测试。否则,测试期间报告的准确性也将取决于一个变化的测试数据库。

每一次迭代都会动态地制作作物。训练批次中的所有图像都是随机裁剪的。我希望这能回答你的第二个问题。

你的直觉是不完整的:随着更大的收获(227x227),你有更多的数据增强。数据增强本质上创造了“新的”训练样本。这是至关重要的,以防止过度适应在培训。由于作物较小(255x255),你应该期望得到更好的训练精度,但测试精度较低,因为数据更有可能被过度拟合。

当然,种植可能会过度。裁剪过多,就会从图像中丢失太多信息。对于图像分类,理想的作物大小是不改变图像的类别(即,只有背景被裁剪掉)。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/42605461

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档