0 综述
上图展示了source-free domain adaptation和一般的DA的区别。在之前的两篇source-free的论文中已经反复讲解,不再赘述。
这文章也是使用Positive learning和Negative Learning的方法。
SFSS的训练分成两个步骤(和其他的source-free的算法一样)“
pesudo label是半监督算法广泛使用的方法。然而通过softmax和argmax来获取的pesudo label是不可信的,因为source和target之间的域差距。一种方法是选择高置信度的伪标签,这个可以有效的去除错误的标签,但是这个会陷入“winner-takes-all” dilemma。也就是说模型会预测majority classes而忽视minority classes。
这篇文章为了解决这种imbalance,将intra-class threshold 定义为:
这个公式的官方解释:
这个公式的我的解释:就是每一个类别,选择他们的softmax之后的预测值的前百分之K个。就是每一个类别会选择不同的阈值,保证每个类别都balnace一些
这个方法面试两个问题:
论文中说:会在每一个epoch的开始来更新pesudo label。
得到了pesudo label后,使用crossentropy损失来更新分割模型:
此外,我们还更新那些没有被选中的pixels,通过entropy minimization的方式。Entropy minimization已经被展示有效,在半监督分割算法和domain adaptation当中。
熵最小化可以被认为是交叉熵损失函数的soft-assignment的版本。
所以positive learning的loss就是: