首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

TPAMI 2022|3D语义分割中域适应的跨模态学习

域适应是在标签稀缺时实现学习的一项重要任务。虽然大多数工作只关注图像模态,但存在许多重要的多模态数据集。为了利用多模态进行域适应,我们提出了跨模态学习,我们通过相互模仿来加强两种模态的预测之间的一致性。我们限定网络对标记的数据做出正确的预测,并对未标记的目标域数据进行跨模态的一致性预测。无监督和半监督的域适应 settings 的实验证明了这种新颖的域适应策略的有效性。具体来说,我们评估来自 2D 图像、3D 点云或两者都有的 3D 语义分割任务。我们利用最近的自动驾驶数据集来产生各种各样的域适应场景,包括场景布局上、光照上、传感器设置上、天气上的变化,以及 synthetic-to-real 的设置。在所有域适应场景中,我们的方法显著地改进了以前的单模态域适应的 baseline 。

01

Source-Free Domain Adaptation for Semantic Segmentation

无监督域自适应(UDA)可以解决基于卷积神经网络(CNN)的语义分割方法严重依赖于像素级注释数据的挑战,这是劳动密集型的。然而,这方面现有的UDA方法不可避免地需要完全访问源数据集,以减少模型自适应过程中源域和目标域之间的差距,这在源数据集是私有的真实场景中是不切实际的,因此无法与训练有素的源模型一起发布。为了解决这个问题,我们提出了一种用于语义分割的无源领域自适应框架,即SFDA,其中只有经过训练的源模型和未标记的目标领域数据集可用于自适应。SFDA不仅能够在模型自适应过程中通过知识转移从源模型中恢复和保存源领域知识,而且能够从目标领域中提取有价值的信息用于自监督学习。为语义分割量身定制的像素级和补丁级优化目标在框架中无缝集成。在众多基准数据集上的广泛实验结果突出了我们的框架相对于依赖源数据的现有UDA方法的有效性。

03

一叶知秋:基于“单目标域样本”的领域自适应方法

传统的无监督领域自适应方法(UDA)除了需要大量的源域数据(Source Data)外,还需要足够数量的无标注目标域样本(Target Data)进行训练,比如基于分布对齐、基于伪标签提取和基于熵最小化的方法等均隶属于此范畴。然而在实际场景中,除了数据标注费时费力,数据的采集本身也可能存在困难,比如因数据隐私保护、采集环境苛刻等造成的目标域数据稀缺。因此,即使能够通过计算机生成无限量的虚拟数据,因为真实数据的稀缺,网络也无法通过传统的UDA方法进行正常训练。针对这种目标数据稀缺的现实而具有挑战性的问题,本文提出了一种新的解决方法。文章假设我们只搜集到了一张来自于目标域的珍贵样本,仅仅通过对该样本的充分挖掘,使模型能够感知到潜在的目标域分布,达到“一叶落知天下秋”的效果。原论文发表于NeurIPS2020,标题为 《Adversarial Style Mining for One-Shot Unsupervised Domain Adaptation》,代码已开源。论文第一作者罗亚威,博士毕业于华中科技大学计算机科学与技术学院,现任浙江大学计算机科学与技术学院博士后。

02

Few-shot Adaptive Faster R-CNN

为了减少由域转移引起的检测性能下降,我们致力于开发一种新的少镜头自适应方法,该方法只需要少量的目标域映射和有限的边界框注释。为此,我们首先观察几个重大挑战。首先,目标域数据严重不足,使得现有的域自适应方法效率低下。其次,目标检测涉及同时定位和分类,进一步复杂化了模型的自适应过程。第三,该模型存在过度适应(类似于用少量数据样本训练时的过度拟合)和不稳定风险,可能导致目标域检测性能下降。为了解决这些挑战,我们首先引入了一个针对源和目标特性的配对机制,以缓解目标域样本不足的问题。然后,我们提出了一个双层模块,使源训练检测器适应目标域:1)基于分割池的图像级自适应模块在不同的位置上均匀提取和对齐成对的局部patch特征,具有不同的尺度和长宽比;2)实例级适配模块对成对的目标特性进行语义对齐,避免类间混淆。同时,采用源模型特征正则化(SMFR)方法,稳定了两个模块的自适应过程。结合这些贡献,提出了一种新型的少拍自适应Fast R-CNN框架,称为FAFRCNN。对多个数据集的实验表明,我们的模型在感兴趣的少镜头域适应(FDA)和非超视域适应(UDA)设置下均获得了最新的性能。

04

探索无监督域自适应,释放语言模型的力量:基于检索增强的情境学习实现知识迁移

在自然语言处理(NLP)领域,如何有效地进行无监督域自适应(Unsupervised Domain Adaptation, UDA) 一直是研究的热点和挑战。无监督域自适应的目标是在目标域无标签的情况下,将源域的知识迁移到目标域,以提高模型在新领域的泛化能力。近年来,随着大规模预训练语言模型的出现,情境学习(In-Context Learning) 作为一种新兴的学习方法,已经在各种NLP任务中取得了显著的成果。然而,在实际应用场景中,我们经常面临一个问题:源领域的演示数据并不总是一目了然。这就导致了需要进行跨领域的上下文学习的问题。此外,LLMs在未知和陌生领域中仍然面临着一些挑战,尤其是在长尾知识方面。同时在无监督域自适应任务中,如何充分利用情境学习的优势进行知识迁移仍然是一个开放性问题。

01

开源 | CVPR2020 同时处理3D点云数据和2D图像数据的模型,通过输入多模态数据进行3D点云分割

无监督领域自适应(Unsupervised Domain Adaptation,UDA)是解决模型在缺少标注数据集的新领域应用的关键技术。当前许多数据集是多模态的(多模态数据,不同传感器对同一事物的描述数据,比如说,相机、X光、红外线对同一个场景同一个目标照出的图片),但是大部分的UDA模型是单模态的。本文提出了一种名为xMUDA的交叉模型,主要探索怎样通过2D图像和3D点云的多模态数据学习3D语义分割模型。融合两种不同维度的数据是很有挑战的,并且很可能因为两种数据的空间偏移不同而受到影响。在xMUDA中,为防止较强的模型因为较弱模型的影响而出现预测错误,使用模式互相学习互相影响,并脱离目标分割。本文基于xMUDA模型,使用白天到晚上数据、不同国家的数据和不同的开放数据集进行了评估。在大量的测试中,相比过去表现SOTA的单模态模型,xMUDA模型获得了巨大的改进。

03
领券