照片、视频中的人脸有时也能骗过一些不成熟的人脸识别系统,让人们对人脸解锁的安全性产生很大怀疑。在这篇 4 千多字的教程中,作者介绍了如何用 OpenCV 进行活体检测(liveness detection)。跟随作者给出的代码和讲解,你可以在人脸识别系统中创建一个活体检测器,用于检测伪造人脸并执行反人脸欺骗。
这样的用户可能会拿到另一个人的照片。甚至可能他们的手机上就有其他人的照片或视频,他们可以用这样的照片或视频来欺骗识别人脸的相机(就像本文开头的图片那样)。
文章名称:A Survey of 6D Object Detection Based on 3D Models for Industrial Applications,J. Imaging | Free Full-Text | A Survey of 6D Object Detection Based on 3D Models for Industrial Applications (mdpi.com)
作者:breezecheng、morajiang、lyleleeli,腾讯 WXG 应用研究员 微信识图已经在微信的扫一扫识物,微信聊天/朋友圈/公众号长按图片搜一搜等场景上线,并且从最初的电商类目(鞋子、箱包、美妆、服装、家电、玩具、图书、食品、珠宝、家具等),扩展到更加丰富的万物场景,囊括了植物、动物、汽车、红酒、地标、菜品、名画、商标、作业以及其他通用场景。在算法架构上,微信识图主要由三大核心步骤组成,即为主体检测+子类目预测+子类目细粒度同款检索,开发一个高性能的检测器对于前两个步骤至关重要
AI科技评论按:虽然CVPR 2017已经落下帷幕,但对精彩论文的解读还在继续。下文是Momenta高级研发工程师李俊对此次大会收录的Speed/Accuracy trade-offs for modern convolutional object detectors 一文进行的解读。 如何选择物体检测器 ——对当下主流CNN物体检测器的评测 自2014年RCNN被提出以来,基于卷积神经网络的物体检测已经成为主流。Faster RCNN、SSD、YOLO、 R-FCN等诸多检测算法百花齐放,每种方法都在各自
目前基于深度学习的通用物体检测算法大致可以分为两类:一步法检测器和二步法检测器。一步法检测器有较高的检测速度,但检测精度不如二步法检测器。而二步法检测有较高的检测精度,但检测效率不如一步法检测器。为了使得一步法检测器获得二步法检测器的检测精度,同时保持较高的检测效率,本文作者对一步法和二步法检测器进行了一系列探索,提出了RefineDet、SRN、AlignDet等系列算法。此次分享,首先概括地介绍通用物体检测算法,接着介绍作者的一系列相关工作,最后对物体检测的发展进行讨论与展望。
根据图像或视频进行人体姿势估计在如健康跟踪、手语识别等实际应用中起着核心作用。由于个体会做出各种各样的姿势,此任务具有极大的挑战性。
AI 科技评论按:本文来自著名的计算机视觉教学网站「pyimagesearch」,文章作者为 Adrian Rosebrock。在本文中,Adrian 将就「如何鉴别图像/视频中的真实人脸和伪造人脸」这一问题进行深入的分析,并介绍使用基于 OpenCV 的模型进行活体检测的具体方法。雷锋网 AI 科技评论编译如下。
生成对抗性网络(GANs)的最新进展已被证明可以通过数据扩充有效地执行目标检测器的域自适应。虽然GANs非常成功,但那些能够在图像到图像的翻译任务中很好地保存目标的方法通常需要辅助任务,例如语义分割,以防止图像内容过于失真。然而,在实践中很难获得像素级注释。或者,实例感知图像转换模型分别处理对象实例和背景。然而,它在测试时需要目标检测器,假设现成的检测器在这两个领域都能很好地工作。在这项工作中,我们介绍了AugGAN Det,它引入了循环目标一致性(CoCo)损失,以生成跨复杂域的实例感知翻译图像。 目标域的目标检测器直接用于生成器训练,并引导翻译图像中保留的目标携带目标域外观。与之前的模型(例如,需要像素级语义分割来强制潜在分布保持对象)相比,这项工作只需要更容易获取的边界框注释。接下来,对于感知实例的GAN模型,我们的模型AugGAN-Det在没有明确对齐实例特征的情况下内化了全局和对象样式转移。最重要的是,在测试时不需要检测器。实验结果表明,我们的模型优于最近的目标保持和实例级模型,并实现了最先进的检测精度和视觉感知质量。
随着最近半监督目标检测(SS-OD)技术的发展,目标检测器可以通过使用有限的标记数据和丰富的未标记数据来改进。然而,仍有两个挑战没有解决:(1)在无锚检测器上没有先期的SS-OD工作,(2)在伪标签边界框回归时,先期工作是无效的。在本文中,我们提出了Unbiased Teacher v2,它显示了SS-OD方法在无锚检测器上的通用性,同时也为无监督回归损失引入了Listen2Student机制。特别是,我们首先提出了一项研究,检查现有的SS-OD方法在无锚检测器上的有效性,发现它们在半监督环境下取得的性能改进要低得多。我们还观察到,在半监督环境下,无锚检测器中使用的带 centerness 的框选择和基于定位的标签不能很好地工作。另一方面,我们的Listen2Student机制明确地防止在训练边界框回归时出现误导性的伪标签。边界框回归的训练中明确防止误导性的伪标签;我们特别开发了一种新的伪标签选择机制,该机制基于教师和学生的相对不确定性。和学生的相对不确定性为基础的新型伪标签选择机制。这一想法有助于在半监督环境下对回归分支进行了有利的改进。我们的方法,既适用于我们的方法适用于无锚和基于锚的方法,在VOC、 COCO-standard和COCO-additional中一直优于最先进的方法。
推荐三篇今天(2023.1.9)新出目标检测方向论文,其均为3D目标检测,其中两篇论文来自图森未来,方法上一篇多视图+两篇点云方向。
PP-YOLO评估指标显示出比现有的最新对象检测模型YOLOv4更高的性能。但是,提出者百度却谦虚的声明:
作者:arlencai,腾讯 WXG 应用研究员 微信“扫一扫”识物已上线一段时间,在公司内外均受到极大的关注。相比于行内相关竞品的“拍”,“扫一扫”识物的特点在于“扫”,带来更为便捷的用户体验。“扫”离不开高效的移动端物体检测,本文将为你揭秘。 一、背景 “扫”是“扫一扫”识物的亮点,带来更为便捷的用户体验。相比于“拍”的交互方式,“扫”的难点在于如何自动地选择包含物体的图像帧,这离不开高效的移动端物体检测。 二、问题 “扫一扫”识物是一种面向开放环境的通用物体检测——复杂多样的物体形态要求模型具有
目前的目标检测模型在许多基准数据集上都取得了良好的效果,在夜晚或者黑暗条件下检测目标仍然是一个巨大的挑战。
在前一篇文章中,我们讨论了用于人体检测的早期方法,例如Vila Jones的目标检测框架(Haar级联)和方向梯度直方图(HOG)检测器。我们也看到了这些早期方法存在的问题,例如漏检、误检等。在本文中,我们将了解最新的深度学习技术是如何解决上述这些问题的,并使用代码来实现它。
目标检测是计算机视觉中一项具有挑战性的任务。现在,许多检测网络在应用大型训练数据集时可以获得良好的检测结果。然而,为训练注释足够数量的数据往往很费时间。为了解决这个问题,本文提出了一种基于半监督学习的方法。 半监督学习用少量的注释数据和大量的未注释数据来训练检测网络。 在提出的方法中,生成对抗网络被用来从未注释的数据中提取数据分布。提取的信息随后被用于提高检测网络的性能。实验表明,与只使用少数注释数据的监督学习相比,本文的方法大大改善了检测性能。实验结果证明,当训练数据集中只有少数目标物体被注释时,有可能取得可接受的检测结果。
随着激光雷达在机器人,无人车的领域的推广应用,三维点云的相关处理技术作为高精地图、高精定位、环境检测等方向的核心模块越来越受到重视。现有的在点云中定位物体的单阶段检测器通常将物体定位和类别分类视为分开的任务,因此定位精度和分类置信度可能无法很好地对齐。《SFFAI97期三维点云检测专题》我们邀请到了来自香港中文大学的郑武同学,分享他提出的新型检测方法,解决此问题。
两年一度的国际计算机视觉大会 ICCV 2019 ( IEEE International Conference on Computer Vision) 将于 10 月 27 日 - 11 月 2 日在韩国首尔举行。近期,大会官方公布了最终的论文接收决定,旷视研究院共有 11 篇论文被收录,研究领域涵盖通用物体检测及数据集、文字检测与识别、半监督学习、分割算法、视频分析、影像处理、行人及车辆再识别、模型压缩、度量学习、强化学习、元学习等众多领域。本文把 11 篇论文汇在一起,逐篇做了亮点抢先解读。
今天,我将讨论在物体检测器中引入的一个优雅的概念 —— Anchors,它是如何帮助检测图像中的物体,以及它们与传统的两阶段检测器中的Anchor有何不同。
“扫”是“扫一扫”识物的亮点,带来更为便捷的用户体验。相比于“拍”的交互方式,“扫”的难点在于如何自动地选择包含物体的图像帧,这离不开高效的移动端物体检测。
密集物体检测器依赖于滑动窗口范式,可以在规则的图像网格上预测物体。同时,采用网格点上的特征图来生成边界框预测。点特征使用方便,但可能缺乏精确定位的明确边界信息。
Overview应用程序开发者通常使用 security challenges(一种升级身份验证形式)来增加应用程序的安全性。团队对在移动设备上的程序中运行现有反欺诈security challenges Boxer 进行了大规模测量研究后发现,虽然 Boxer 总体上运行良好,但它无法在以低于每秒一帧(FPS)的速度运行的设备上进行有效扫描,从而降低了
中国科学院大学联合厦门大学和深圳鹏城实验室,提出一种自由锚框匹配的单阶段(One-stage)物体检测方法FreeAnchor。
这是众多Anchor Free中比较有影响力的一篇文章,不光是效果好,而且思路清楚,简单,不需要任何trick,并将众多的视觉任务统一到了一个框架中,值得一看。
本文来谈一下基于深度学习的航空物体场景下的物体检测。航空物体这类场景一般由无人机空拍来收集数据,然后进行后处理来满足特定的任务场景,有些情况下要求实现实时反馈,甚至多任务。
关注并星标 从此不迷路 计算机视觉研究院 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 论文地址:https://arxiv.org/pdf/2104.11892.pdf 计算机视觉研究院专栏 作者:Edison_G 目标检测是对图像或视频中的目标进行分类和定位的任务。 由于其广泛的应用,近年来它已获得突出地位。 01 概述 今天分享中我们调查了基于深度学习的目标检测器的最新发展。还提供了检测中使用的基准数据集和评估指标的简明概述,以及检测任务中使用的一些突出的
目标检测被广泛应用于许多计算机视觉任务中,包括自主驾驶、机器人视觉、智能交通、工业质量检测、目标跟踪等。
本文对 CVPR 2021 检测大类中的“伪装目标检测”、“旋转目标检测”领域的论文进行了盘点,将会依次阐述每篇论文的方法思路和亮点。在极市平台回复“CVPR21检测”,即可获得打包论文 >>加入极市CV技术交流群,走在计算机视觉的最前沿
半监督物体检测,旨在探索未标记的数据以提高物体检测器,近年来已成为一项活跃的任务。然而,现有的SSOD方法主要集中在水平方向的物体上,而对航空图像中常见的多方向物体则没有进行探索。本文提出了一个新颖的半监督定向物体检测模型,称为SOOD,建立在主流的伪标签框架之上。针对空中场景中的定向物体,我们设计了两个损失函数来提供更好的监督。针对物体的方向,第一个损失对每个伪标签-预测对(包括一个预测和其相应的伪标签)的一致性进行了规范化处理,并根据它们的方向差距进行了适应性加权。第二种损失侧重于图像的布局,对相似性进行规范化,并明确地在伪标签和预测的集合之间建立多对多的关系。这样的全局一致性约束可以进一步促进半监督学习。我们的实验表明,当用这两个提议的损失进行训练时,SOOD在DOTA v1.5基准的各种设置下超过了最先进的SSOD方法。
计算机视觉研究院专栏 作者:Edison_G 目标检测中,点特征使用方便,但可能缺乏精确定位的明确边界信息。 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 1 简述 密集物体检测器依赖于滑动窗口范式,可以在规则的图像网格上预测物体。同时,采用网格点上的特征图来生成边界框预测。点特征使用方便,但可能缺乏精确定位的明确边界信息。 在今天分享中,有研究者提出了一种简单高效的算子,称为 Border-Align,从边界的极值点提取“边界特征”以增强点特征。基于Borde
MSRA 视觉组 作者:胡瀚、顾家远、张拯、代季峰、危夷晨 现有的物体检测算法均采用单独识别物体的方式,而没有利用物体之间的相互关系。近日,来自微软亚洲研究院视觉计算组的研究员们提出了物体关系模块(object relation module)。该模块通过建模物体间外观和几何的交互信息来首次实现了所有物体的联合推理学习。该模块可以用于提高物体识别的精度,也可以替代通常使用的非极大抑制(non-maximum suppression)后处理方法。在现今最好的物体检测框架下,利用该模块实现了首个完全端到端的物体
备注:研究方向+地点+学校/公司+昵称,更快通过申请,长按加细分领域技术交流群,目前有细分领域:图像分割、图像目标检测、论文写作、车道检测、模型优化、目标跟踪、SLAM、点云处理(分割检测)、深度学习。
今年的ICCV,商汤科技及联合实验室共有57篇论文入选ICCV 2019(包含11篇Oral),同时在Open Images、COCO、LVIS等13项重要竞赛中夺冠!
在自动驾驶和计算机视觉领域,单目3D物体检测是一项极具挑战性的任务。以前大多数的工作都是手动标注的3D标签框,标注成本很高。
作者丨Aritra Roy Gosthipaty and Ritwik Raha 编译丨ronghuaiyang 编辑丨AiCharm
由Google AI主办的Open Images大赛是目前通用物体检测和实例分割两个领域中数据量最大、数据分布最复杂、最有挑战性的竞赛。它比COCO数据大一个量级,标注更不规则,场景更复杂。
以基于线性SVM的人体检测为例,研究了鲁棒视觉目标识别的特征集问题。在回顾了现有的基于边缘和梯度的描述符之后,我们通过实验证明了方向梯度(HOG)描述符的直方图网格在人类检测方面明显优于现有的特征集。我们研究了计算的各个阶段对性能的影响,得出结论:在重叠描述符块中,细尺度梯度、细方向边距、相对粗的空间边距和高质量的局部对比度归一化都是获得良好结果的重要因素。新方法在原有MIT行人数据库的基础上实现了近乎完美的分离,因此我们引入了一个更具挑战性的数据集,其中包含1800多张带注释的人类图像,具有大范围的姿态变化和背景。
之前在专栏的第一篇文章中介绍了一下关于层模型(layered model)的工作,并给自己挖了几个坑。今天让我来填其中一个坑:视频中的物体低延迟检测。由于这一系列工作目前贡献了一篇cvpr17和一篇iccv19共两篇论文,我将分上下两篇文章分别介绍,希望可以把工作的背景、思路、坑、相关思考和一些不在论文发表内容中的故事说明白。还是和上一篇一样,希望写出来的的不是机械的公式或者吹得天花乱坠神乎其神的PR,而是一些原理性的东西以及背后思考的过程。
飞跃计划第四期还剩最后两个名额,定制专属你的算法工程师的学习计划(联系SIGAI_NO2)
作者:Dawei Yang,Chaowei Xiao,Bo Li,Jia Deng,Mingyan Liu
本文推荐浙大团队的一项研究成果:LPCG:Lidar Point Cloud Guided Monocular 3D Object Detection,该论文被ECCV2022接收。
过去的一年我都在忙着实现我的本科毕业设计课题项目:行人检测系统。我们团队的目标是实时检测现场CCTV摄像机视频流中出现的行人。本文是对此项目的简要总结,同时对我们在开发这个行人检测系统中用到的一些开源项目和库进行简单的评价。
1,2017-CVPR: A-Fast-RCNN: Hard Positive Generation via Adversary for Object Detection 摘要 如何学习对遮挡和变形不敏感的物体检测器?当前解决方案主要使用的是基于数据驱动的策略:收集具有不同条件下的对象物体的大规模数据集去训练模型,并期望希望最终可学习到不变性。 但数据集真的有可能穷尽所有遮挡吗?作者认为,像类别一样,遮挡和变形也有长尾分布问题:一些遮挡和变形在训练集是罕见的,甚至不存在。 提出了一种解决方案:学习一个对抗网
【新智元导读】在谷歌研究院工作是一种怎样的体验?新智元近日专访了谷歌研究员朱梦龙,他作为谷歌团队G-RMI的核心成员,从去年9月开始一直盘踞在COCO的物体检测榜首。此外,他作为团队核心成员发布的最新研究MobileNet,通过分解降维卷积层,以及早期采用stride 2等,把计算量压缩至VGG的1/30,让终端模型的图像检测达到VGG的效果。谈到在谷歌研究院的体验,他认为就像在读PhD,跟一群天才(包括曾经在谷歌的贾扬清)一起讨论有趣的想法,以及做有意思的项目;不同的是,这些项目还能在现实中被广泛应用。
论文:RepPoints: Point Set Representation for Object Detection
领取专属 10元无门槛券
手把手带您无忧上云