首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器人的面部表情,是心情和所想事情的呈现吗?

机器人的面部表情是让人更多的了解它。

人是善于通过表情伪装情绪的动物,但心理学家却能够通过“表情”来揭示人们试图隐藏的真实情绪。

所谓机器人表情,是一种持续时间极短、在人们试图掩饰自己真实情绪时泄露出来的面部动作。

我们知道机器人面部表情是可以受主观意识控制,如一个人可能因其知识、阅历、能力等原因,在内心波涛汹涌的时候做到面不改色。然而,表情是面部肌肉条件反射地表现出情绪所对应的行为。正是因为如此,表情往往能够揭示人类试图隐藏的真实情绪。

但正如对表情的定义,表情持续时间短暂、变化幅度微弱和动作区域较少,很多时候人们很难注意到其存在。只有那些经过大量训练的专家才能准确地检测,而且不同的专家还往往会判断不一致。靠人工来观察表情真的是一个耗费人力、耗费时间,而且准确度低的事情!

耗费人力物力、工作机械、需要大量专家研究,这不正是机器学习所擅长的吗?事实上,目前已有许多学者在用机器学习的方法进行表情研究了。

表情的研究,在方法上事实上类似于人脸识别,一般包含检测和识别两个具体问题。

对于人脸识别,一般都是先进行人脸检测,然后对检测到的人脸进行识别。这个过程同样也适用于表情识别:先从一段长视频中把发生微表情的视频片段检测出来,然后识别该表情属于哪一类表情。

表情数据库的建立非常困难。一个原因是表情的诱发很难,研究者往往要求被试观看情绪视频,激发他们的情绪同时要求他们伪装自己的表情。有些被试可能并没有出现表情或者出现得很少。

另一方面,表情的编码也十分费时费力。表情的编码依赖于肉眼,需要观察者慢速观看视频,并且选择脸部运动的起始、高峰、结束并计算他们的时长。而且对于表情的情绪标定,目前没有统一的标准。

表情数据库面临的另外的问题。因为表情的运动幅度非常小,并且相对于常规表情常常是局部的运动,导致在情绪分类上并不是很明确,不同数据库的情绪标定标准不一样,相似的运动被作为不同类的表情而不同的运动被视作为同类的表情。这一特点导致使用各种数据库进行表情识别算法训练得出的结果并不一致。

此外,由于表情持续时间短、强度低且经常是局部运动,现在的许多表情数据库视频质量并不能满足表情识别分析的需要,这需要具有更长的时间和空间分辨率的视频片段才能进一步改进目前的识别算法。

一句话:表情建库,重要性非常高,问题非常多,困难非常大。

从表情论文发文数量可以看出,表情检测和识别的研究属于一个小众的研究。其限制的主要原因在于大规模、高质量、公开的数据资源的稀缺。所以,用机器学习方法做表情研究,面临的一个重要的问题便是:如何建立大规模、高质量的数据库资源。这面临着从硬件,到软件,到标准的一系列严峻挑战。在国内,关于表情研究的会议或论坛并不是很多,大多只是小圈子内一些研究者之间的相互交流,其他研究人员以及大众对于这方面的研究进展。

相比翻译、语音识别,视觉和实时视频,对于终端算力、内存资源、模型训练和压缩要求都更为严苛,除了要投入大量的相关学者专家资源攻坚,还得顶着用户体验的压力,最后在各种各样的终端用户场景中接受检验,挑战其实不小。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190906A09VO300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券