前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >self-training | 域迁移 | source-free(第二篇)

self-training | 域迁移 | source-free(第二篇)

作者头像
机器学习炼丹术
发布2021-11-18 15:35:32
6810
发布2021-11-18 15:35:32
举报

0 综述

上图展示了source-free domain adaptation和一般的DA的区别。在之前的两篇source-free的论文中已经反复讲解,不再赘述。

1 方法

这文章也是使用Positive learning和Negative Learning的方法。

  • 方法名称:Source-Free domain adaptive Semantic Segmentation (SFSS)

1.1 Notations and Definations

SFSS的训练分成两个步骤(和其他的source-free的算法一样)“

  1. 先在有标注的source data上有监督的训练;
  2. 在无标注的target data上做无监督的训练。

1.2 Positive Learning

pesudo label是半监督算法广泛使用的方法。然而通过softmax和argmax来获取的pesudo label是不可信的,因为source和target之间的域差距。一种方法是选择高置信度的伪标签,这个可以有效的去除错误的标签,但是这个会陷入“winner-takes-all” dilemma。也就是说模型会预测majority classes而忽视minority classes。

这篇文章为了解决这种imbalance,将intra-class threshold 定义为:

这个公式的官方解释:

这个公式的我的解释:就是每一个类别,选择他们的softmax之后的预测值的前百分之K个。就是每一个类别会选择不同的阈值,保证每个类别都balnace一些

这个方法面试两个问题:

  1. The most noise labels are filtered due to the high softmax prediction confidence selection.
  2. 总是选择高置信度的标签,会导致分割模型有偏。

论文中说:会在每一个epoch的开始来更新pesudo label。

得到了pesudo label后,使用crossentropy损失来更新分割模型:

此外,我们还更新那些没有被选中的pixels,通过entropy minimization的方式。Entropy minimization已经被展示有效,在半监督分割算法和domain adaptation当中。

熵最小化可以被认为是交叉熵损失函数的soft-assignment的版本。

所以positive learning的loss就是:

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-11-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习炼丹术 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 方法
    • 1.1 Notations and Definations
      • 1.2 Positive Learning
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档