CVRP 2017|DLP-CNN & center loss & Island loss

面部表情识别很大程度上依赖于定义好的数据集,然而这样的数据集往往存在着很多的限制。现有的面部表情数据集往往在严格控制的实验条件下,受试者和测试环境均不具有多样性。受试者被要求按照统一的方式表达感情。

以及大多数情感识别数据集只包含6种基本表情,甚至更少。

所以作者提出了创建一个新的自发性的表情数据集,同时增加了所包含的表情类别,除了基本的六种表情外,还增加了由六个基本表情衍生出的十二种复合表情。

对将近3万张表情图片座标注是件十分困难和耗时的,作者找了315个标注者(来自学校的学生和在职员工),同时作者创建了一个网站,专门供标注者进行图片标注,图片被随机地展示给标注者,同时确保相邻地被展示给同一标注者的图片间没有直接的关系,同时还要确保每张图片至少要经由40个标注者标注,最后每张图片会对应一个七个维度的向量,每一维度代表相关情感标签的可能性。

由于标注过程的主观性判断,可能会导致不同标注者对于同一张图片的标注存在着较大的差异,为了避免噪声标注,作者选用了EM算法对于标注者的可靠性进行进一步的评估。

作者认为传统的特征提取方法可能对于具有严格实验控制的表情具有良好的分类效果,但是这种提取方法不再适用于自发性的情感数据集,故而作者根据RAF-DB数据集的特性提出了替换掉传统DCNN网络中的softmax损失函数,用一种全新的损失函数计算损失,提高对于特征的区分力。

作者的基本思想是尽可能地减小类内差异,使得样本与样本间变得紧凑,所以通过计算x与他同类的最近的k个样本的均值间的距离,然后在和softmax函数作加和。

EM算法:

其实也就是个交替迭代的思想,先从已知的A的信息得到B,再由B推断A。(假设我们估计知道A和B两个参数,在开始状态下二者都是未知的,并且知道了A的信息就可以得到B的信息,反过来知道了B也就得到了A。可以考虑首先赋予A某种初值,以此得到B的估计值,然后从B的当前值出发,重新估计A的取值,这个过程一直持续到收敛为止。)

center loss:

L_C=\frac{1}{2}\sum_{i=1}^{m}\|x_i-c_{y_i}\|^2

y_i 是第 i 个样本所在类的标签,x_i 是第 i 个样本对应的特征向量(全连接层之后,决策层之前提取到的特征),c_{y_i} 是第 i 个样本所在类的所有样本的中心点处,通过最小化the center loss,可以把相同类的样本都推向类的中心,减小类内差。

LP loss:

L_{lp}=\frac{1}{2}\sum_{i=1}^{m}\|x_i-\frac{1}{k}\sum_{x \in N_k\{x_i\}}x\|^2

x是同一label下,距离样本x_i 最近的k个样本(但是感觉这样会引起小团体的问题),按作者的说法是,LP loss相较于ceter loss更适用于多模态的分布情况,而不是说把所有样本往单一的中心点去靠拢。

Island loss:

考虑到不同类之间可能会有重叠,作者提出了Island loss,缩小类内距的同时,增大类间距。

L_{IL}=L_{C}+\lambda_{1}\sum_{c_j \in N}\sum_{c_k \in N, c_j \neq c_k}\Big(\frac{c_k\cdot c_j}{\|c_k\|_2\|c_j\|_2}+1\Big)

第一项惩罚样本与中心的距离,第二项惩罚类与类之间的相似性,Island loss将相同的表情推向一起,将不同的表情相互推开。

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

编辑于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏数据科学与人工智能

【深度学习】深度学习在图像识别中的研究进展与展望

深度学习是近十年来人工智能领域取得的最重要的突破之一。它在语音识别、自然语言处理、计算机视觉、图像与视频分析、多媒体等诸多领域都取得了巨大成功。本文将重点介绍深...

8228
来自专栏CSDN技术头条

深度学习对抗样本的八个误解与事实

【编者按】在kdnuggets此前发布的文章(Deep Learning’s Deep Flaws)’s Deep Flaws中,深度学习大神Yoshua Be...

2159
来自专栏PPV课数据科学社区

文本数据的机器学习自动分类方法(上)

【编者按】:随着互联网技术的迅速发展与普及,如何对浩如烟海的数据进行分类、组织和管理,已经成为一个具有重要用途的研究课题。而在这些数据中,文本数据又是数量最大的...

5426
来自专栏大数据文摘

想去机器学习初创公司做数据科学家?这里有最常问的40道面试题

2585
来自专栏数据派THU

详解AI Lab 21篇CVPR 2018论文(附论文)

2614
来自专栏企鹅号快讯

深度学习概述与发展历史-花书第一章解读(上)

我的整理/学习计划,主要以NG的DL课程为蓝本,以DL花书为主要阅读材料,以其他网课与BLOG相关内容为参考。NG的DL课程与花书有如下对应关系:课程一《神经网...

2266
来自专栏AI科技大本营的专栏

标题:重磅 | ICML 2017 开幕,华人再获最佳论文奖(附历届引用量最高论文解读)

翻译 | AI科技大本营(rgznai100) 参与 | 尚岩奇、周翔 8 月 6 日,为期 6 天的国际机器学习大会 ICML 在澳大利亚悉尼正式拉开帷幕。据...

3484
来自专栏数据科学与人工智能

【机器学习】机器学习基础:线性回归

从How-Old.net说起 大家是否玩过How-Old.net呢? 这个网站能够推测出相片中人物的年龄与性别~ ?   好神奇~想知道它是如何实现的吗? ...

25210
来自专栏AI2ML人工智能to机器学习

一步一步走向锥规划 - LS

一般来说凸优化(Convex Optimization, CO)中最一般的是锥规划 (Cone Programming, CP) 问题, 最简单的是最小二乘(...

1071
来自专栏大数据挖掘DT机器学习

sklearn集成学习:如何调参?

---- Random Forest和Gradient Tree Boosting参数详解 2 如何调参?   2.1 调参的目标:偏差和方差的协调   2...

4867

扫码关注云+社区

领取腾讯云代金券