专栏首页arxiv.org翻译专栏基于Soft Teacher的端到端半监督目标检测

基于Soft Teacher的端到端半监督目标检测

本文提出了一种端到端的半监督目标检测方法,与之前更复杂的多阶段方法形成对比。端到端的培训逐渐改善了课程中的伪标签质量,越来越多的伪标签反过来又有益于目标检测培训。在这个框架下,我们还提出了两个简单而有效的技术: 一个软教师机制,其中每个未标记包围盒的分类损失由教师网络产生的分类得分来衡量; 一个盒抖动方法来选择可靠的伪盒子用于盒回归的学习。在 COCO 基准测试中,在不同的标注比例(1% 、5% 和10%)下,本文提出的方法比以前的方法有更大的优势。此外,我们的方法被证明在标记数据量相对较大的情况下也能很好地执行。例如,通过利用 COCO 的123K 未标记图像,可以改进使用 + 3.6 mAP 的完整 COCO 训练集训练的40.9 mAP 基线检测器,达到44.5 mAP。在最先进的基于 Swin transformer 的对象检测器(58.9 mAP On test-dev)上,+ 1.5 mAP 仍能显著提高检测精度,达到60.4 mAP,+ 1.2 mAP 提高实例分割精度,达到52.4 mAP,推动了新的技术水平。

原文题目:End-to-End Semi-Supervised Object Detection with Soft Teacher

原文:This paper presents an end-to-end semi-supervised object detection approach, in contrast to previous more complex multi-stage methods. The end-to-end training gradually improves pseudo label qualities during the curriculum, and the more and more accurate pseudo labels in turn benefit object detection training. We also propose two simple yet effective techniques within this framework: a soft teacher mechanism where the classification loss of each unlabeled bounding box is weighed by the classification score produced by the teacher network; a box jittering approach to select reliable pseudo boxes for the learning of box regression. On COCO benchmark, the proposed approach outperforms previous methods by a large margin under various labeling ratios, i.e. 1\%, 5\% and 10\%. Moreover, our approach proves to perform also well when the amount of labeled data is relatively large. For example, it can improve a 40.9 mAP baseline detector trained using the full COCO training set by +3.6 mAP, reaching 44.5 mAP, by leveraging the 123K unlabeled images of COCO. On the state-of-the-art Swin Transformer-based object detector (58.9 mAP on test-dev), it can still significantly improve the detection accuracy by +1.5 mAP, reaching 60.4 mAP, and improve the instance segmentation accuracy by +1.2 mAP, reaching 52.4 mAP, pushing the new state-of-the-art.

原文链接:https://arxiv.org/abs/2106.09018

原文作者:Mengde Xu, Zheng Zhang, Han Hu, Jianfeng Wang, Lijuan Wang, Fangyun Wei, Xiang Bai, Zicheng Liu

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 前景目标检测的无监督学习

    无监督学习是当今计算机视觉领域最困难的挑战之一。这项任务在人工智能和新兴技术中有着巨大的实用价值,因为可以用相对较低的成本收集大量未标注的视频。

    计算机视觉研究院
  • ICCV 2019 | 精确的端到端的弱监督目标检测网络

    由于没有实例级类别标注,对于弱监督目标检测网络要精确的预测目标的位置具有挑战性。大多数现有的方法倾向于通过使用双阶段的学习过程来解决该问题,即多实例学习检测器,...

    BBuf
  • Trans论文 | Proposal Learning用于半监督的目标检测

    今年的疫情给大家带来了很多的不便,但是我们“计算机视觉战队”依然坚守自己岗位,给关注我们的同学带来新的分享,今年我们大家一起加油!今天我们主要还是说一说目标检测...

    计算机视觉研究院
  • 基于深度学习的弱监督目标检测

    弱监督目标检测(WSOD)和定位(WSOL),即使用图像级标签检测图像中包含边界框的多个或单个实例,是CV领域中长期存在且具有挑战性的任务。 随着深度神经网络在...

    狼啸风云
  • ICLR 审稿人:这篇论文在标签平滑和知识蒸馏的关系上取得了重大突破!

    AI 科技评论今天给大家介绍一篇 已被 ICLR 2021 接收的论文,论文作者来自卡耐基梅隆大学、香港科技大学、北京大学和马萨诸塞大学阿默斯特分校(是MEAL...

    AI科技评论
  • 端到端基于图像的伪激光雷达3D目标检测

    标题:End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection

    3D视觉工坊
  • 小样本学习及其在美团场景中的应用

    美团的各个业务有着丰富的NLP场景,而这些场景中模型的构建需要很多的标注资源,成本很高。小样本学习致力于在数据资源稀少的情况下训练出比较好的模型。本文从主动学习...

    美团技术团队
  • 从Hinton开山之作开始,谈知识蒸馏的最新进展

    蒸馏可以提供student在one-shot label上学不到的soft label信息,这些里面包含了类别间信息,以及student小网络学不到而teach...

    AI科技大本营
  • 自监督学习新思路!基于蒸馏损失的自监督学习算法 | CVPR 2021

    AI 科技评论 今天给大家介绍一篇被 CVPR 2021 收录的关于自监督的文章——S2-BNN [1],论文作者来自 CMU,HKUST 和 IIAI。

    AI科技评论
  • 重磅 | 基于弱监督约束的通用目标检测

    目标检测作为计算机视觉研究极其重要的一个分支,随着 deep learning 技术的发展,近几年得到了长足的进步,但广大科(搬)研(砖)青年长期被各位大佬压在...

    小小詹同学
  • 入门 | 半监督学习在图像分类上的基本工作方式

    机器之心
  • ECCV 2020 | 自监督任务辅助的知识蒸馏

    本文介绍了一种利用自监督任务辅助知识蒸馏的方法:Knowledge Distillation Meets Self-Supervision [1]. 这篇文章(...

    CV君
  • 干货 | 意想不到的盟友:改善隐私问题可以带来表现更好的机器学习模型

    AI 科技评论按:Nicolas Papernot 在 2017、2018 连续两年的 ICLR 上都发表了关于差分隐私方法 PATE 的论文。如今大家都意识到...

    AI科技评论
  • 意想不到的盟友:改善隐私问题可以带来表现更好的机器学习模型

    AI 研习社按:Nicolas Papernot 在 2017、2018 连续两年的 ICLR 上都发表了关于差分隐私方法 PATE 的论文。如今大家都意识到了...

    AI研习社
  • CVPR单目深度估计竞赛结果出炉,腾讯光影研究室优势夺冠,成果落地应用

    竞赛结果及相关论文可见:https://arxiv.org/pdf/2105.08630.pd

    机器之心
  • 半监督方法:不确定性感知自增强模型(MICCAI 2019)[github代码]

    今天分享一篇发表在MICCAI 2019上的论文:Uncertainty-aware Self-ensembling Model for Semi-superv...

    Minerva
  • 预训练模型ProphetNet:根据未来文本信息进行自然语言生成

    编者按:微软亚洲研究院提出新的预训练模型 ProphetNet,提出了一种新的自监督学习目标——同时预测多个未来字符,在序列到序列的多个自然语言生成任务都取得了...

    AI科技大本营
  • 【深度学习】深度学习中的知识蒸馏技术(上)简介

    在化学中,蒸馏是一种有效的分离不同沸点组分的方法,大致步骤是先升温使低沸点的组分汽化,然后降温冷凝,达到分离出目标物质的目的。化学蒸馏条件:(1)蒸馏的液体是混...

    黄博的机器学习圈子
  • 介绍一篇通过无监督depth estimation改进语义分割的论文

    来源丨https://zhuanlan.zhihu.com/p/341180239

    3D视觉工坊

扫码关注云+社区

领取腾讯云代金券