导言
这篇文章有4篇论文速递,都是人脸方向,包括人脸识别、人脸表情识别、人脸情绪分类和人脸属性预测。其中一篇是CVPR 2018 workshop。
编辑: Amusi
校稿: Amusi
前戏
Amusi 将日常整理的论文都会同步发布到 daily-paper-computer-vision 上。名字有点露骨,还请见谅。喜欢的童鞋,欢迎star、fork和pull。
直接点击“阅读全文”即可访问daily-paper-computer-vision。
link: https://github.com/amusi/daily-paper-computer-vision
Face
《Robust Face Recognition with Deeply Normalized Depth Images》
arXiv 2018
Flowchart of our proposed face recognition method using deeply normalized depth images
Reconstruction results of some depth images
Abstract:已经证明深度信息对于面部识别是有用的。然而,现有的基于深度图像的面部识别方法仍然受到噪声深度值和变化的姿势和表情的影响。在本文中,我们提出了一种新的方法,用于将面部深度图像归一化为正面姿势和中性表情(neutral expression),并从归一化的深度图像中提取鲁棒特征。该方法通过两个深度卷积神经网络(DCNN),归一化网络(NetN)和特征提取网络(NetF)来实现。给定面部深度图像,NetN首先将其转换为HHA图像,通过DCNN从该图像重建3D面部。 NetN然后从重构的3D脸部生成姿势 - 表达归一化(PEN)深度图像。 PEN深度图像最终传递给NetF,NetF通过另一个DCNN提取强大的特征表示以进行人脸识别。我们的初步评估结果证明了所提出的方法在识别具有深度图像的任意姿势和表情的面部方面的优越性。
arXiv:https://arxiv.org/abs/1805.00406
《Which Facial Expressions Can Reveal Your Gender? A Study With 3D Faces》
arXiv 2018
Male and Female Faces Examples and Extracted Features
Abstract:人类在外表和行为方面都表现出丰富的性别暗示。在计算机视觉领域,已经广泛研究了面部外观的性别线索(cue),而基于面部行为的性别识别研究仍然很少。在这项工作中,我们首先证明面部表情会影响3D面部中呈现的性别模式,并且在同一表达式中训练和测试时性别识别性能会提高。此外,我们设计的实验直接提取面部表情形成的形态变化作为特征,用于基于表达的性别识别。实验结果表明,在快乐和厌恶表达中,性别可以相当准确地被识别,而惊喜和悲伤表达不会传达很多与性别相关的信息。这是文献中第一部用3D面部研究基于表达的性别分类的工作,揭示了不同类型表达中包含的性别模式的强度,即快乐,厌恶,惊喜和悲伤的表达。
arXiv:https://arxiv.org/abs/1805.00371
《I Know How You Feel: Emotion Recognition with Facial Landmarks》
CVPR WiCV workshop 2018
Our emotion recognition model in passenger detection system for autonomous cars
Abstract:对于许多计算机视觉算法而言,人类情感(human emotions)的分类仍然是一项重要且具有挑战性的任务,尤其是在人类机器人的日常生活中与人类共存的时代。当前提出的用于情绪识别的方法使用多层卷积网络来解决该任务,该网络没有明确地推断出分类阶段中的任何面部特征。在这项工作中,我们假设一种根本不同的方法来解决情绪识别任务,该方法依赖于将面部标志作为分类损失函数的一部分。为此,我们扩展了最近提出的深度对齐网络(Deep Alignment Network ,DAN),该网络在最近的面部关键点识别挑战中实现了最佳的结果,其中包含与面部特征相关的术语。 由于这个简单的修改,我们的名为EmotionalDAN的模型能够在两个具有挑战性的基准数据集上超过最先进的情感分类方法达5%。
arXiv:https://arxiv.org/abs/1805.00326
《A Deep Face Identification Network Enhanced by Facial Attributes Prediction》
arXiv 2018
Proposed CNN architecture, face identification and attribute prediction are trained jointly
Abstract:对于许多计算机视觉算法而言,人类情感(human emotions)的分类仍然是一项重要且具有挑战性的任务,尤其是在人类机器人的日常生活中与人类共存的时代。当前提出的用于情绪识别的方法使用多层卷积网络来解决该任务,该网络没有明确地推断出分类阶段中的任何面部特征。在这项工作中,我们假设一种根本不同的方法来解决情绪识别任务,该方法依赖于将面部标志作为分类损失函数的一部分。为此,我们扩展了最近提出的深度对齐网络(Deep Alignment Network ,DAN),该网络在最近的面部关键点识别挑战中实现了最佳的结果,其中包含与面部特征相关的术语。 由于这个简单的修改,我们的名为EmotionalDAN的模型能够在两个具有挑战性的基准数据集上超过最先进的情感分类方法达5%。
arXiv:https://arxiv.org/abs/1805.00326