人形机器人的相似度与人类的好感度不成正比。根据日本机器人专家森政弘1970年提出的恐怖谷理论,随着物体拟人程度增加,人类的反应呈增-减-增曲线。当拟人度达到某一程度时,人类好感度会大幅下降,甚至还会觉得拟人物惊悚可怕。
△ 恐怖谷理论/维基百科
Facebook正在努力让自己的机器人尽快跨过恐怖谷。
近日,Facebook人工智能实验室(FAIR)的研究人员就开发出一个善于表达情绪的机器人。这是由一个由AI算法操控的虚拟动画机器人,在观察几小时人类Skype聊天视频能模仿人的表情。
为了更好模拟人类的情感表达方式,研究人员将动画中的人脸分成68个区块,在Skype对话中重点观察这些部位的变化。在交谈中,人类的点头、眨眼和嘴部的动作变化都会反应出来,机器人会学会这些面部变化。
△ 上图为捕捉到的人类对话中的面部表情,下图为系统对面部表情的追踪
观察一段时间后,动画机器人可以实时预测可能出现的面部表情。如果视频中人在笑,机器人也可能张开嘴,或者歪着头。
随后,Facebook研究人员进行了一组测试。志愿者们观看了人和人对话的原版视频,以及训练后的机器人模拟的反应,他们认为机器人表现得自然且真实。
因为目前算法还只能表现在动画中,尚不清楚算法支持的人形机器人的反应如何。
学习面部交流的基本规则不足以创造真正的对话伙伴,以色列特拉维夫大学的博士生Goren Gordon说,“真正的面部表情是要基于所思所感的。”
“在这种情况下,Facebook系统会创造出一种平均性格”,卡内基梅隆大学语言技术学院副教授louis-Philippe Morency说。在未来,机器人的性格可能更复杂,或能根据谈话对象调整自己的性格。
机器人不擅长人类之间互动的这些微妙元素,Gordon说。他同时表达了对机器人的期望:“在某一时刻,我们终会走出恐怖谷,走到另一边。”
△ 日本大阪大学智能机器人研究所设计的人形机器人女播音员Otonaroid
Facebook将在本月24号温哥华召开的IROS 2017上展示这项技术,目前已将这项技术的论文《Learn2Smile: Learning Non-Verbal Interaction Through Observation》公开。
在这篇论文中,我们研究了人类和智能体面对面交流中的非语言面部暗示,提出了基于用户表情自动学习并升级智能体面部情感表达的方法。我们用数百个视频训练神经网络,包含人类相互对话的视频,这其中没有加入外部的人为监督。
实验结果显示,我们的智能体面部标记模型可以长时间预测人类的表情;对比结果也表明,模型明显优于基线方法。最后,我们进行了更深入的研究以更好地理解模型性能。
本项研究的数据集已经开放,方便领域内的其他研究者使用。
最后,附论文下载地址:
https://www.dropbox.com/s/ljfnv3i1jw0uzbh/learn2smile-learning-verbal.pdf?dl=0