每天给你送来NLP技术干货!
作者丨专知
编辑丨极市平台
导读
本文对深度长尾学习的最新进展进行了综述。具体地说,我们将已有的深度长尾学习研究分为三类(即类重平衡、信息增强和模块改进),并根据这三类对这些方法进行了详细的回顾。
论文链接:https://arxiv.org/abs/2110.04596
摘要
深度长尾学习是视觉识别中最具挑战性的问题之一,其目标是从大量遵循长尾类分布的图像中训练出性能良好的深度模型。在过去的十年中,深度学习已经成为一种学习高质量图像表示的强大的识别模型,并导致了一般视觉识别的显著突破。然而,长尾类不平衡是实际视觉识别任务中普遍存在的问题,这种不平衡往往限制了基于深度网络的识别模型在实际应用中的实用性,因为长尾类容易偏向主导类,在尾类上的表现较差。为了解决这一问题,近年来人们进行了大量的研究,在深度长尾学习领域取得了可喜的进展。鉴于该领域的快速发展,本文对深度长尾学习的最新进展进行了综述。具体地说,我们将已有的深度长尾学习研究分为三类(即类重平衡、信息增强和模块改进),并根据这三类对这些方法进行了详细的回顾。之后,我们通过一种新提出的评价指标,即相对准确性,来评估它们在多大程度上解决了阶级失衡问题,从而对几种最先进的方法进行了实证分析。最后,我们强调了深度长尾学习的重要应用,并确定了未来研究的几个有前景的方向。
引言
深度学习允许由多个处理层组成的计算模型学习具有多级抽象[1]、[2]的数据表示,并在计算机视觉[3]、[4]、[5]、[6]、[7]、[8]方面取得了令人难以置信的进展。深度学习的关键因素是大规模数据集的可用性、GPU的出现和深度网络架构[9]的进步。深度神经网络具有很强的学习高质量数据表示的能力,在图像分类[6]、[10]、目标检测[7]、[11]和语义分割[8]、[12]等视觉识别任务中取得了巨大的成功。
在实际应用中,训练样本通常表现为长尾类分布,其中一小部分类有大量的样本点,而其他类只与少数样本[13],[14],[15],[16]相关。然而,这种训练样本数量的类不平衡,使得基于深度网络的识别模型的训练非常具有挑战性。如图1所示,训练后的模型容易偏向训练数据量大的头类,导致模型在数据量有限的尾类上表现不佳。因此,经验风险最小化[20]常用实践训练的深度模型无法处理长尾类不平衡的现实应用,如人脸识别[21],[22],物种分类[23],[24],医学图像诊断[25],城市场景理解[26],无人机检测[27]。针对长尾类的不平衡,近年来开展了大量的深度长尾学习研究,包括[15]、[16]、[28]、[29]、[30]。尽管这一领域发展迅速,但仍没有系统的研究来回顾和讨论现有的进展。为了填补这一空白,我们旨在对2021年年中之前进行的近期长尾学习研究进行全面综述。
如图2所示,我们根据现有方法的主要技术贡献将其分为三类,即类重平衡、信息增强和模块改进; 这些类别可以进一步分为九个子类别:重采样、代价敏感学习、logit调整、迁移学习、数据增强、表示学习、分类器设计、解耦训练和集成学习。根据这一分类,我们对现有的方法进行了全面的回顾,并对几种最先进的方法进行了实证分析,使用一个新的评价指标,即相对准确性来评价它们处理类不平衡的能力。我们通过介绍几个真实的深度长尾学习的应用场景,并确定了几个有前景的研究方向,可以由社区在未来探索。
我们总结了这项综述的主要贡献如下。
• 据我们所知,这是第一次对深度长尾学习的全面调研,将为研究人员和社区提供对深度神经网络的长尾视觉学习的更好理解。
• 我们提供了对高级长尾学习研究的深入回顾,并通过一个新的相对准确性度量来评估它们在多大程度上处理长尾类别失衡,以实证研究最先进的方法。
• 我们为未来的研究确定了四个潜在的方法创新方向以及八个新的深度长尾学习任务设置。
第二节介绍了问题的定义,并介绍了广泛使用的数据集、度量和网络骨架。第3节全面回顾了先进的长尾学习方法,第4节基于一个新的评价指标实证分析了几种最先进的方法。第5节给出了深度长尾学习的应用场景,第6节给出了未来的研究方向。我们在第7节结束调研。
📝论文解读投稿,让你的文章被更多不同背景、不同方向的人看到,不被石沉大海,或许还能增加不少引用的呦~ 投稿加下面微信备注“投稿”即可。
最近文章
EMNLP 2022 和 COLING 2022,投哪个会议比较好?
ACL'22 | 快手+中科院提出一种数据增强方法:Text Smoothing
下载一:中文版!学习TensorFlow、PyTorch、机器学习、深度学习和数据结构五件套! 后台回复【五件套】
下载二:南大模式识别PPT 后台回复【南大模式识别】
投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。
记得备注呦
整理不易,还望给个在看!