读论文系列:Deep transfer learning person re-identification

arxiv 2016 by Mengyue Geng, Yaowei Wang, Tao Xiang, Yonghong Tian

Transfer Learning

旧数据训练得到的分类器,在新的数据上重新训练,从而在新数据上取得比较好的表现,新数据与旧数据有相似的地方,但具有不同的分布。

Fine tuning一般步骤

这是InceptionV4的图示

  • 移除Softmax分类层
  • 换成与目标数据集输出维数相同的Softmax层
  • 冻结靠近输入的卷积层
  • 以较高的学习率训练分类层
  • 以很低的学习率微调剩下的卷积层

论文核心模型

几个创新点:

  • 对于CNN输出的两张图的特征,使用了相同的dropout而非各自独立的随机dropout
  • 使用了二分类加多分类两种loss,二分类用于判断两张图中的人是否相同,多分类用于描述两张图中各自的人物ID
  • 分两阶段进行Fine tune,先微调多分类,再联合二分类和多分类进行微调,避免多分类网络不稳定对二分类的影响

Unsupervised Transfer Learning

Self-training

  • 将图片均分为两组(论文中是按摄像头划分的)
  • 将B组中的每张图片,与A组中CNN输出相似度最高的图片归为一类,从而构造出多分类标签
  • 喂入CNN训练
  • 迭代多次

Co-training

  • 由于CNN输出的图片相似度不一定真的可靠,存在噪音,因此Self-training效果没有特别好
  • 寻找一个互补的模型,将特征映射到另一个子空间中
  • 将B组中的每张图片,与A组中子空间相似度最高的图片归为一类,构造多分类标签
  • 喂入CNN训练
  • 迭代多次

Co-Model

  • CNN计算得到深度特征: \[?=\theta(?)\]
  • Learn a subspace defined by a dictionary D and a new representation Z in the subspace.
  • \[(D^*, Z^*) = min_{D,Z} ||Y-DZ||_F^2 + \lambda\omega(Z)\] s.t. \[||d_i||_2^2 \leq 1\]
  • 其中\[||Y-DZ||_F^2\]是reconstruction error
  • \[\omega(Z) = \sum_{i,j} W_{ij}||z_i - z_j||_2^2\]
  • 当\[y_i\]和\[y_j\]是最近邻时,\(W_{ij}\)为1,否则为0
  • 从而最小化最近邻的representation z的差异

Trick Result

  • Softmax loss VS Multi loss: 76.6% -> 83.7%(Market1501)
  • 一致的Dropout VS 随机的Dropout: 80.8%-> 83.7% (Market1501)
  • Two-stepped VS one-stepped: 47.6%->56.3%(VIPeR)

Supervised Transfer Learning Result

DataSet

State of the art

Transfer

CUHK03

75.3

85.4

Market1501

82.21

83.7

VIPeR

53.5

56.3

PRID

40.9

43.6

CUHK01

86.6

93.2

(表中都是top1准确率)

Unsupervised Transfer Learning Result

DataSet

State of the art

Transfer

VIPeR

33.5

45.1

PRID

25.0

36.2

CUHK01

41.0

68.8

Compare with other unsupervised method

使用其他无监督方法进行实验对比

Method

Top1 acc

Self-training

42.8

SubSpace

42.3

Transfer

45.1

CNN+AutoEncoder

36.4

Adversarial

22.8

其中SubSpace为只使用Co-Model,不使用CNN模型,Self-training为只使用CNN模型,Transfer是两者结合的Co-training。

总体来说这种无监督的方法取得了比较好的效果,在小数据集上甚至超过了有监督的效果。

如果觉得我的文章对你有帮助,可以前往github点个star

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏计算机视觉战队

利用多尺度块合成进行图像修复

深度学习的最新进展已经令人兴奋,在自然图像中填充大量的空洞,具有语义上的合理性和上下文感知的细节,影响基础图像处理任务,例如目标消除。虽然这些基于深度学习的方...

2949
来自专栏https://www.cnblogs.com/L

【深度学习篇】--神经网络中解决梯度弥散问题

在梯度下降中,随着算法反向反馈到前面几层,梯度会越来越小,最终,没有变化,这时或许还没有收敛到比较好的解,这就是梯度消失问题,深度学习遭受不稳定的梯度,不同层学...

1844
来自专栏小小挖掘机

推荐系统遇上深度学习(六)--PNN模型理论和实践

推荐系统遇上深度学习(五)--Deep&Cross Network模型理论和实践

1092
来自专栏desperate633

深入浅出--梯度下降法及其实现

本文将从一个下山的场景开始,先提出梯度下降算法的基本思想,进而从数学上解释梯度下降算法的原理,最后实现一个简单的梯度下降算法的实例!

792
来自专栏磐创AI技术团队的专栏

【斯坦福CS229】一文横扫机器学习要点:监督学习、无监督学习、深度学习

【磐创AI导读】:提及机器学习,很多人会推荐斯坦福CSS 229。本文便对该课程做了系统的整理。包括监督学习、非监督学习以及深度学习。可谓是是学习ML的“掌上备...

1012
来自专栏数据科学与人工智能

【机器学习】分类算法评价

一、引言 分类算法有很多,不同分类算法又用很多不同的变种。不同的分类算法有不同的特定,在不同的数据集上表现的效果也不同,我们需要根据特定的任务进行算法的选择,如...

2275
来自专栏AI2ML人工智能to机器学习

数据变换

常见的数据预处理包括: 数据缺失(Missing), 奇值处理(Outlier), 数据变换(Transformation), 特征选择(Feature Sel...

751
来自专栏机器学习算法原理与实践

隐马尔科夫模型HMM(一)HMM模型

    隐马尔科夫模型(Hidden Markov Model,以下简称HMM)是比较经典的机器学习模型了,它在语言识别,自然语言处理,模式识别等领域得到广泛的...

996
来自专栏ATYUN订阅号

【技术】动手实现会写数字的神经网络—半监督学习和生成式对抗网络介绍

在1889年,梵高画了这个美丽的艺术品:星月夜。如今,我的GAN模型只使用20%的标签数据,学会了画MNIST数字!它是怎么实现的?让我们动手做做看。 ? 半监...

48310
来自专栏marsggbo

神经网络权重初始化问题

之前看Andrew大神的视频有介绍到神经网络权重需要随机初始化而不是全初始化为0的问题,其真正深层次的含义没有弄明白,所以结合一些资料(cs231n课程)希望...

4927

扫码关注云+社区