我正在尝试在 dataset上训练一个模型,其中包含20个“有用”的语义类和一组可以忽略的背景类(例如。天空,自我的交通工具,山脉,路灯)。为了训练模型忽略这些背景像素,我在互联网上使用了以下流行的解决方案:
ignore_label (ex:ignore_label=255)cross_entropy损失来训练模型ignore_label损失中提供cross_entropy参数,因此计算的损失会忽略带有不必要类的像素。但这种方法有一个问题。一旦经过训练,模型最终会将这些背景像素分类为20个类中的一个。这是预期的,因为在损失,我们不处罚模型的任何分类,为背景像素。
因此,第二个明显的解决方案是对所有背景像素使用额外的类。因此,它是第21届的城市景观。然而,在这里,我担心我会“浪费”我的模型的能力,教它分类这个额外的不必要的课程。
处理背景像素类的最精确方法是什么?
发布于 2021-02-18 07:36:49
当然,第二个解决方案是更好的。这是最好的解决方案,背景类绝对是额外的类,但不是不必要的类,因为这样您要检测的类和背景类之间就有了明确的区别。
实际上,这是在分段中推荐的标准过程,用于将类分配给背景,其中背景当然代表除特定类之外的其他一切。
发布于 2021-02-10 16:21:51
也许你可以尝试使用“骰子丢失+倒骰子丢失”,它同时考虑了前景像素和背景像素。
https://stackoverflow.com/questions/59083222
复制相似问题