首页
学习
活动
专区
工具
TVP
发布

自动化所在行人再识别研究中取得进展

行人再识别问题是一个重要且具有挑战性的经典计算机视觉任务。由于存在光照变化、视角变化、遮挡、背景杂乱、行人姿态多样等复杂因素,目前研究的测试性能往往不能达到预期效果。

近日,中国科学院自动化研究所智能感知与计算研究中心科研人员引入了以下方法来达到去除背景、提高模型泛化性能、提高图像利用率的目的。

首先,引进二值化的行人分割轮廓图作为额外输入,并与彩色图像合成为四通道的新输入,然后设计一种基于分割轮廓图的对比注意模型来学习背景无关的行人特征。在此基础上,提出一种区域级别的三元组损失函数,分别来约束来自全图区域、行人身体区域、背景区域的特征,提出的损失函数可以让来自全图区域和行人身体区域的特征在特征空间靠近,并远离背景区域,最终达到去除背景的作用。所提出的方法在三个行人再识别数据集上验证了有效性,取得了当前最好的性能。

其次,提出一种特殊的样本来扩充数据集:对抗式遮挡样本。方法流程如下:1、按照常用的方法训练一个ReID模型;2、通过网络可视化的方法找出模型在识别训练样本时所关注的区域,对这些区域进行(部分)遮挡就可以产生新的样本,同时保持这些样本原有的类别标签;3、把新的样本加入到原始数据集中,按照之前的方法训练一个新的模型。这种样本不仅模拟了现实中的遮挡情况,而且对于模型来说是困难样本,可以给模型的训练提供动量,从而跳出局部极小点,减少模型的过拟合。实验发现原始的ReID模型识别训练样本时只关注一些局部的身体区域,加入新样本训练后的模型则可以同时关注到一些之前没关注的身体区域,从而提高了模型在测试阶段的鲁棒性。

最后,为了解决只有部分行人图像可供识别的问题,提出利用全卷积网络抽取与输入图像尺寸相对应的空域特征图,并提出一种不需要行人对齐的方法(深度空域特征重建)来匹配不同尺寸大小的行人图像。借鉴字典学习中重建误差来计算不同的空域特征图的相似度。按照这种匹配方式,利用端到端学习方法增大来自于同一个人的图像对的相似度,反之亦然。该方法不需要对齐,对输入图像尺寸没有限制,在Partial REID、Partial iLIDS和Market1501上取得较好效果。

相关研究成果发表在国际计算机视觉与模式识别大会CVPR 2018上。

论文链接

自动化所在行人再识别研究中取得进展

版权声明:图片来源于网络,图文无关。如涉及版权问题,请作者持权属证明与本网联系

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180307A0X0PP00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券