首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

One-Shot Image-to-Image Translation viaPart-Global Learning With aMulti-Adversarial Framework

众所周知,人类可以从几个有限的图像样本中有效地学习和识别物体。然而,对于现有的主流深度神经网络来说,仅从少数图像中学习仍然是一个巨大的挑战。受人类思维中类比推理的启发,一种可行的策略是“翻译”丰富的源域的丰富图像,以用不足的图像数据丰富相关但不同的目标域。为了实现这一目标,我们提出了一种新的、有效的基于部分全局学习的多对抗性框架(MA),该框架实现了一次跨域图像到图像的翻译。具体而言,我们首先设计了一个部分全局对抗性训练方案,为特征提取提供了一种有效的方法,并防止鉴别器被过度拟合。然后,采用多对抗机制来增强图像到图像的翻译能力,以挖掘高级语义表示。此外,还提出了一种平衡对抗性损失函数,旨在平衡训练数据,稳定训练过程。大量实验表明,所提出的方法可以在两个极不平衡的图像域之间的各种数据集上获得令人印象深刻的结果,并且在一次图像到图像的转换上优于最先进的方法。

02
您找到你想要的搜索结果了吗?
是的
没有找到

Few-shot Adaptive Faster R-CNN

为了减少由域转移引起的检测性能下降,我们致力于开发一种新的少镜头自适应方法,该方法只需要少量的目标域映射和有限的边界框注释。为此,我们首先观察几个重大挑战。首先,目标域数据严重不足,使得现有的域自适应方法效率低下。其次,目标检测涉及同时定位和分类,进一步复杂化了模型的自适应过程。第三,该模型存在过度适应(类似于用少量数据样本训练时的过度拟合)和不稳定风险,可能导致目标域检测性能下降。为了解决这些挑战,我们首先引入了一个针对源和目标特性的配对机制,以缓解目标域样本不足的问题。然后,我们提出了一个双层模块,使源训练检测器适应目标域:1)基于分割池的图像级自适应模块在不同的位置上均匀提取和对齐成对的局部patch特征,具有不同的尺度和长宽比;2)实例级适配模块对成对的目标特性进行语义对齐,避免类间混淆。同时,采用源模型特征正则化(SMFR)方法,稳定了两个模块的自适应过程。结合这些贡献,提出了一种新型的少拍自适应Fast R-CNN框架,称为FAFRCNN。对多个数据集的实验表明,我们的模型在感兴趣的少镜头域适应(FDA)和非超视域适应(UDA)设置下均获得了最新的性能。

04
领券