CVRP 2017|DLP-CNN & center loss & Island loss

面部表情识别很大程度上依赖于定义好的数据集,然而这样的数据集往往存在着很多的限制。现有的面部表情数据集往往在严格控制的实验条件下,受试者和测试环境均不具有多样性。受试者被要求按照统一的方式表达感情。

以及大多数情感识别数据集只包含6种基本表情,甚至更少。

所以作者提出了创建一个新的自发性的表情数据集,同时增加了所包含的表情类别,除了基本的六种表情外,还增加了由六个基本表情衍生出的十二种复合表情。

对将近3万张表情图片座标注是件十分困难和耗时的,作者找了315个标注者(来自学校的学生和在职员工),同时作者创建了一个网站,专门供标注者进行图片标注,图片被随机地展示给标注者,同时确保相邻地被展示给同一标注者的图片间没有直接的关系,同时还要确保每张图片至少要经由40个标注者标注,最后每张图片会对应一个七个维度的向量,每一维度代表相关情感标签的可能性。

由于标注过程的主观性判断,可能会导致不同标注者对于同一张图片的标注存在着较大的差异,为了避免噪声标注,作者选用了EM算法对于标注者的可靠性进行进一步的评估。

作者认为传统的特征提取方法可能对于具有严格实验控制的表情具有良好的分类效果,但是这种提取方法不再适用于自发性的情感数据集,故而作者根据RAF-DB数据集的特性提出了替换掉传统DCNN网络中的softmax损失函数,用一种全新的损失函数计算损失,提高对于特征的区分力。

作者的基本思想是尽可能地减小类内差异,使得样本与样本间变得紧凑,所以通过计算x与他同类的最近的k个样本的均值间的距离,然后在和softmax函数作加和。

EM算法:

其实也就是个交替迭代的思想,先从已知的A的信息得到B,再由B推断A。(假设我们估计知道A和B两个参数,在开始状态下二者都是未知的,并且知道了A的信息就可以得到B的信息,反过来知道了B也就得到了A。可以考虑首先赋予A某种初值,以此得到B的估计值,然后从B的当前值出发,重新估计A的取值,这个过程一直持续到收敛为止。)

center loss:

L_C=\frac{1}{2}\sum_{i=1}^{m}\|x_i-c_{y_i}\|^2

y_i 是第 i 个样本所在类的标签,x_i 是第 i 个样本对应的特征向量(全连接层之后,决策层之前提取到的特征),c_{y_i} 是第 i 个样本所在类的所有样本的中心点处,通过最小化the center loss,可以把相同类的样本都推向类的中心,减小类内差。

LP loss:

L_{lp}=\frac{1}{2}\sum_{i=1}^{m}\|x_i-\frac{1}{k}\sum_{x \in N_k\{x_i\}}x\|^2

x是同一label下,距离样本x_i 最近的k个样本(但是感觉这样会引起小团体的问题),按作者的说法是,LP loss相较于ceter loss更适用于多模态的分布情况,而不是说把所有样本往单一的中心点去靠拢。

Island loss:

考虑到不同类之间可能会有重叠,作者提出了Island loss,缩小类内距的同时,增大类间距。

L_{IL}=L_{C}+\lambda_{1}\sum_{c_j \in N}\sum_{c_k \in N, c_j \neq c_k}\Big(\frac{c_k\cdot c_j}{\|c_k\|_2\|c_j\|_2}+1\Big)

第一项惩罚样本与中心的距离,第二项惩罚类与类之间的相似性,Island loss将相同的表情推向一起,将不同的表情相互推开。

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

编辑于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人工智能

宽度学习系统:一种不需要深度结构的高效增量学习系统

本文是对陈俊龙教授团队“Broad Learning System: An Effective and Efficient Incremental Learning ...

5645
来自专栏机器学习算法与Python学习

干货 | 详解scikit-learn中随机森林(RF)和梯度提升决策树(GBDT)的参数调优

关键字全网搜索最新排名 【机器学习算法】:排名第一 【机器学习】:排名第二 【Python】:排名第三 【算法】:排名第四 转自:博客园 作者:jasonfre...

1.5K5
来自专栏AI科技大本营的专栏

标题:重磅 | ICML 2017 开幕,华人再获最佳论文奖(附历届引用量最高论文解读)

翻译 | AI科技大本营(rgznai100) 参与 | 尚岩奇、周翔 8 月 6 日,为期 6 天的国际机器学习大会 ICML 在澳大利亚悉尼正式拉开帷幕。据...

3344
来自专栏AI2ML人工智能to机器学习

一步一步走向锥规划 - LS

一般来说凸优化(Convex Optimization, CO)中最一般的是锥规划 (Cone Programming, CP) 问题, 最简单的是最小二乘(...

971
来自专栏AI科技评论

干货分享 | 深度学习零基础进阶第二弹

图片来自wiki 昨天,雷锋网编译了《干货分享 | 深度学习零基础进阶大法!》,相信读者一定对深度学习的历史有了一个基本了解,其基本的模型架构(CNN/RNN/...

3647
来自专栏CSDN技术头条

深度学习对抗样本的八个误解与事实

【编者按】在kdnuggets此前发布的文章(Deep Learning’s Deep Flaws)’s Deep Flaws中,深度学习大神Yoshua Be...

2079
来自专栏大数据文摘

想去机器学习初创公司做数据科学家?这里有最常问的40道面试题

2415
来自专栏人工智能头条

【王晓刚】深度学习在图像识别中的研究进展与展望

3827
来自专栏机器之心

AAAI 2018 | 阿里巴巴提出极限低比特神经网络,用于深度模型压缩和加速

35111
来自专栏机器之心

AAAI 2018 | 腾讯AI Lab提出降秩线性动态系统:可处理有噪声计数值短数据

2746

扫码关注云+社区