去年7月,Amusi 曾做过一篇整理:大盘点 | 性能最强的目标检测算法,那时收集的情况是:改进后的 Cascade R-CNN 算法是截止(2019.07.07)目标检测方向性能最强的算法,其 mAP 为 50.9。
在数字仿真技术应用领域,特别是在自动驾驶技术的发展中,目标检测是至关重要的一环,它涉及到对周围环境中物体的感知,为智能装备的决策和规划提供了关键信息。
目标检测是计算机视觉中的经典问题之一。凭借大量可用数据、更快的 GPU 和更好的算法,现在我们可以轻松训练计算机以高精度检测出图像中的多个对象。
"不开源,就是耍流氓","开源,就是生产力",这是我们经常调侃的话术。因为我们经常看到一些所谓重磅或者心仪的论文后,会赶紧看看有没有开源。
不知不觉2020年已经进入11月,ECCV2020也告一段落,今天“计算机视觉研究院”给大家分享目标检测领域优秀的算法及框架!主要包括:弱监督目标检测、目标检测定位提精、带方向目标的检测、Anchor-free 目标检测、点云目标检测和少样本目标检测等。ECCV2020所有论文下载地址:https://www.ecva.net/index.php。
堪称世界计算机科技界奥运会的ACM又举办了ACM MM 2020大会,于10月12日至16日在美国西雅图举行,人工智能独角兽企业深兰科技DeepBlueAI团队战胜了来自三星、厦门大学等机构的团队,斩获了视频目标检测赛道的冠军。
利用 XNOR-Net 的方法对目标检测网络直接进行二值化,网络中的信息冗余(如图(c)和(d)的XNOR的信息内卷)会造成大量的假正例(如图(a)所示)。
今年CVPR20-paper-list前几天已经出了,所以这里做一点大致的综述介绍在CVPR20上在3D目标检测的一些文章。如下图所示,3D目标检测按照大方向可以分为室外和室内的目标检测,室内场景数据集一般有ScanNet等,该领域研究比较少,笔者注意到的第一篇文章是来自FAIR的voteNet,采用霍夫投票机制生成了靠近对象中心的点,利用这些点进行分组和聚合,以生成box proposals。今年在CVPR20上也至少有两篇该文章的后续工作,分别是来自pointnet之父的Imvotenet,地址是:https://arxiv.org/pdf/2001.10692.pdf;另外一篇MLCVNet来自南京大学和卡迪夫大学的联合工作 ,文章地址:https://arxiv.org/pdf/2004.05679,该文章在vote的基础上利用自注意力机制融合Multi-scale的特征。 此外,在室外场景的目标检测中,可以大致按照输入分为lidar-input,image-input和multi-sensors-fusion的研究工作。
一周前 Amusi 整理了 目标检测(Object Detection)较为值得关注的论文:
ECCV 2020 刚刚公布获奖结果!先恭喜各位论文被收录的同学。ECCV 2020 有效投稿数为5025,最终收录1361篇论文,录取率是27%。其中104篇 Oral、161篇 Spotlights,剩下皆为Poster。
去年Amusi 盘点过:目标检测三大开源神器:Detectron2/mmDetectron/SimpleDet。大家反映内容很棒,不少同学开始用起来这些目标检测工具,不管用于发Paper还是做项目。
今天盘点Poster中的谷歌论文,总计27篇,从这些论文中可看出,谷歌很重视自动驾驶,多篇论文为自动驾驶领域,目标检测、NAS、数据增广方法等也是研究的重点。
YOLO目标检测算法诞生于2015年6月,从出生的那一天起就是“高精度、高效率、高实用性”目标检测算法的代名词。
【6】ReBiF:残差双融合特征金字塔网络,用于精确的Single-shot目标检测
一个月内 Amusi 整理了 目标检测(Object Detection)较为值得关注的论文:
[1].Generative Sparse Detection Networks for 3D Single-shot Object Detection
半个月前 Amusi 整理了 目标检测(Object Detection)较为值得关注的论文:
恰逢 2020年,本文再次更新近期值得关注的最新检测论文。这次分享的paper将同步推送到 github上,欢迎大家 star/fork(点击阅读原文,也可直接访问):
近期开源的CV项目真不少,所以CVer的论文项目开源速递系列决定改成周更模式。不过当然前提是累计到3篇 Amusi觉得值得推荐的情况。
COCO 数据集上的目标检测精度的最高纪录已经有将近一年时间停留在53.3 mAP,曾经报告达到过这一高度的算法有:
萧箫 发自 凹非寺 量子位 报道 | 公众号 QbitAI 见过3D物体数据集,见过会动的3D物体数据集吗? 每段动态视频都以目标为中心拍摄,不仅自带标注整体的边界框,每个视频还附带相机位姿和稀疏点云。 这是谷歌的开源3D物体数据集Objectron,包含15000份短视频样本,以及从五个大洲、十个国家里收集来的400多万张带注释的图像。 谷歌认为,3D目标理解领域,缺少像2D中的ImageNet这样的大型数据集,而Objectron数据集能在一定程度上解决这个问题。 数据集一经推出,1.6k网友点赞。
Amusi 在2019年整理并分享了很多目标检测相关的论文,其中个人觉得较为亮眼或者说热门的两大阵营就是:Anchor-Free和基于NAS的目标检测。
对数据集进行标注会消耗大量的人力和资源,此外,只有少数几家科技巨头拥有数十亿的数据点和数以千计的昂贵的深度学习硬件GPU可供使用。
视频目标识别是自主驾驶感知、监控、可穿戴设备和物联网等应用的一项重要任务。由于图像模糊、遮挡或不寻常的目标姿态,使用视频数据进行目标识别比使用静止图像更具挑战性。因为目标的外观可能在某些帧中恶化,通常使用其他帧的特征或检测来增强预测效果。解决这一问题的方法有很多: 如动态规划、跟踪、循环神经网络、有/无光流的特征聚合以跨帧传播高层特征。有些方法采用稀疏方式进行检测或特征聚合,从而大大提高推理速度。主流的多帧无光流特征聚合和 Seq-NMS 后处理结合精度最高,但速度较慢(GPU 上小于10 FPS)。在准确率和速度之间需要权衡: 通常更快的方法准确率较低。所以研究兼具准确率和速度的新方法仍然有很大潜力。
关注并星标 从此不迷路 计算机视觉研究院 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 B. Wang, J. Zheng, and C. L. Philip Chen*, "A Survey on Masked Facial Detection Methods and Datasets for Fighting Against COVID-19", IEEE Transactions on Artificial Intelligence, Early Acces
上周四,华中科技大学白翔教授组的刘哲为我们介绍他们的 AAAI Oral 论文《TANet: Robust 3D Object Detection from Point Clouds with Triple Attention》,本文对此论文进行了详细解读。该研究提出了新型三元注意力模块和 Coarse-to-Fine Regression,实现了检测性能和稳健性的提升。
其中CV君以为最为值得关注的是密歇根大学发布的VirTex算法,从文字描述中训练视觉模型,得到更具表示能力的主干网络,在多个视觉任务中表现优异。这种结合CV 与NLP的工作,也许是未来CV能走的更远的重要方向。
计算机视觉研究院专栏 作者:Edison_G 现在的自监督学习通过在ImageNet数据集上实现图像分类来进行无监督的预训练,通过最大化不同图像之间的距离(相似度),最小化同一张图像的不同视图之间的相似度来学习一个最佳的特征表示,这种方法针对ImageNet这种分类数据集(一张图像上一个类别物体)来说是适用的。但是... 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 1 简要 无监督视觉表示学习引起了相当多的关注,旨在用大量的未标记数据生成更好的特征表示。最近的自监督学
在真实场景中,我们见到的图像不都是方方正正的,比如扫描的图书和遥感图像,需要检测的目标通常是有一定旋转角度的。这时候就需要用到旋转目标检测方法,对目标进行精确的定位,方便后面的识别、分析等高级任务。
今天分享一篇发表在MICCAI 2020上的论文:CircleNet: Anchor-Free Glomerulus Detection with Circle Representation (原文链接:[1],github:[2])。
卷积神经网络(CNN)广泛应用于深度学习和计算机视觉算法中。虽然很多基于CNN的算法符合行业标准,可以嵌入到商业产品中,但是标准的CNN算法仍然有局限性,在很多方面还可以改进。这篇文章讨论了语义分割和编码器-解码器架构作为例子,阐明了其局限性,以及为什么自注意机制可以帮助缓解问题。
不仅登上了GitHub热榜,收割了2.8k星标,还被顶会ICPR 2020 选中。更关键是,这项研究的一作还是北大校友——秦雪彬。
近日,计算机视觉三大国际顶级会议之一的 ECCV 2020 如约而至,COCO 作为 ECCV 2020 的重头戏,是人工智能领域最具影响力的图像(物体)识别挑战赛。本次大会,芯翌科技(XForwardAI)拿下了 COCO 视觉挑战赛—人体关键点检测赛道世界第一,在目标检测 / 实例分割赛道也取得了不错的成绩。
关注并星标 从此不迷路 计算机视觉研究院 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 计算机视觉研究院专栏 作者:Edison_G 来自德克萨斯大学奥斯汀分校、悉尼科技大学和谷歌的研究者提出了一个无需训练就能自动扩展框架 As-ViT,其能以高效和有原则的方式自动发现和扩展 ViT。 当前 Vision Transformers (ViT)领域有两个主要的痛点:1、缺少对 ViT 进行设计和扩展的有效方法;2、训练 ViT 的计算成本比卷积网络要大得多。 为了解
Facebook AI Research的六名成员研究了近期非常流行的Transformer神经网络架构,创建了一个端到端的目标检测AI。研究员声称这种方法简化了目标检测模型的创建,并减少了对手工组件的需求。
在目标检测的应用领域,水下目标检测目前仍然还是一个具有挑战的领域,本文总结了水下目标检测的关键问题、相关论文以及一些比赛的开源方案,希望对大家有帮助。
本文介绍商汤科技在AAAI 2020 上的论文《Object Instance Mining for WeaklySupervised Object Detection》。
在COCO 2019/2020 挑战赛中获得最佳结果!该方案包含RPN++、High-IoU等创新点,以及大量tricks,强烈推荐学习!
水下目标检测旨在对水下场景中的物体进行定位和识别。这项研究由于在海洋学、水下导航等领域的广泛应用而引起了持续的关注。但是,由于复杂的水下环境和光照条件,这仍然是一项艰巨的任务。因此近年来有多个赛事与水下目标检测相关,接下来我们将介绍在水下目标检测领域的深度学习方法概述。
在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异。对于AI从业者来说,在广袤的知识森林中,系统梳理脉络,才能更好地把握趋势。为此,我们精选国内外优秀的综述文章,开辟“综述专栏”,敬请关注。
「YOLO 之父」Joseph Redmon 宣布退出计算机视觉领域了!这个刚刚出现的消息着实让人工智能界感到惊讶。
最近一年,AI领域出现了很多迁移学习(transfer learning)和自学习(self-learning)方面的文章,比较有名的有MoCo,MoCo v2,SimCLR等。这些文章一出现,就受到了很多研究人员的追捧,因为在现实任务上,标签数据是非常宝贵的资源,受制于领域标签数据的缺失,神经网络在很多场景下受到了很多限制。但是迁移学习和自学习的出现,在一定程度上缓解甚至解决了这个问题。我们可以在标签丰富的场景下进行有监督的训练,或者在无标签的场景下,进行神经网络无监督的自学习,然后把训练出来的模型进行迁移学习,到标签很少的场景下,利用这种方式来解决领域标签数据少的问题。
Logo识别技术是现实生活中应用很广的一个领域,比如一张照片中是否出现了Adidas或者Nike的商标Logo,或者一个杯子上是否出现了星巴克或者可口可乐的商标Logo。学术上早在2013年开始就已经陆续使用深度学习做相关的研究,而业界Logo识别已经开始商业化,包括谷歌,百度,阿里等公司都在AI开放平台开放了API给大家提供Logo识别的使用接口。在安全领域Logo识别技术的应用也很广泛,例如敏感信息挖掘,垃圾邮件过滤等方面都有涉及Logo识别相关的应用。2020年RSA创新沙盒中inky公司在恶意邮件识别系统中也用到了这一关键技术。
来源 | Object Instance Mining for WeaklySupervised Object Detection
这些年来,沈春华教授带领团队做出过RefineNet、FCOS等著名的AI算法,目前在Google Scholar上的引用次数达到了3.3w+,H指数达到92。
《Residual Objectness for Imbalance Reduction》。样本不平衡问题感觉近期研究的论文相对较多,如:2019 AAAI GHM,2019 CVPR AP-loss, 还有2019 DR loss, 2019 IoU-balanced loss,two-stage中也有Libra RCNN,都是关注样本不平衡的问题。该论文给出了一种可行的方案,即采用学习的方法来处理样本不平衡问题。
上面的结果由Mask R-CNN得到,可以看到由于边界框定位不准导致前两张图的实例掩码缺失,以及后两张图的边界框与实例掩码不统一。
本文对中科院自动化所、地平线合作的论文《RDSNet: A New Deep Architecture for Reciprocal Object Detection and Instance Segmentation》进行解读,该论文发表在AAAI 2020,且已开源:
领取专属 10元无门槛券
手把手带您无忧上云