作者 | 全华
来源 | Medium
编辑 | 代码医生团队
在这篇文章中,将从CVPR 2019回顾论文“Pose2Seg:Detection Free Human Instance Segmentation”。本文提出了一种人类实例分割的新方法,该方法基于人体姿势而不是提议区域检测来分离实例。
本文的一些亮点:
介绍
人体姿势估计和分割是更好地理解人类活动的重要信息。有很多关于这个主题的研究。最流行的深度学习方法之一是Mask R-CNN,它是一个简单而通用的对象实例分割框架。
即使像Mask-RCNN这样的方法也可以检测对象并为图像中的每个实例生成分割掩码。这些方法存在一些问题:
本文提出的方法Pose2Seg专为人体实例分割而设计,具有以下优点:
封闭的人类基准(OCHuman)
本文介绍了封闭人类基准(OCHuman)数据集,以强调遮挡作为研究的一个挑战性问题,并鼓励算法在现实生活中变得更加实用。
Occluded Human Benchmark(OCHuman)数据集包含8110个带有4731个图像的详细注释人类实例。平均而言,超过67%的人类边界框区域被一个或几个其他人遮挡。
以下是OCHuman数据集中的一些图像:
资料来源:OCHuman Dataset
OCHuman数据集
这是一个比较COCO Dataset和OCHuman Dataset的表。
正如您所看到的,COCO包含很少被遮挡的人类案例,并且在有遮挡的面部时无法评估方法的能力。
OCHuman专为与人类相关的所有三项最重要的任务而设计:检测,姿势估计和实例分割。
OCHuman最重要的方面是平均MaxIoU为0.67。这意味着超过67%的人类边界框区域被一个或几个其他人遮挡。这是现实生活中应用中非常常见的问题,例如视频监控或店内人体行为分析。
结构
Pose2Seg的结构如下图所示:
该方法的步骤可描述如下:
实验
遮挡性能
一般情况下的表现
执行
该论文的官方PyTorch代码:
https://github.com/liruilong940607/Pose2Seg
参考
http://www.liruilong.cn/projects/pose2seg/index.html
https://arxiv.org/abs/1611.08050
推荐阅读
关于图书
《深度学习之TensorFlow:入门、原理与进阶实战》和《Python带我起飞——入门、进阶、商业实战》两本图书是代码医生团队精心编著的 AI入门与提高的精品图书。配套资源丰富:配套视频、QQ读者群、实例源码、 配套论坛:http://bbs.aianaconda.com 。更多请见:https://www.aianaconda.com