前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >人机交互技术研究的最新趋势

人机交互技术研究的最新趋势

原创
作者头像
思谱云汇
修改2019-05-20 10:22:35
1.1K1
修改2019-05-20 10:22:35
举报

剑桥大学的计算机科学家们正在研制能够理解人类意识以及能够表达情感的机器人。

当人类彼此交谈时,他们的交流方式远比简单的语言交谈方式多得多。他们说话的方式很重要——面部表情、语调和肢体语言。如果没有这些额外的提示,就很难用言语或文字进行交流,因为任何经历过类似电子邮件那样纯文字交流误会的人都非常清楚。

你可以想象人与计算机或机器正确交流的难度。这种人机交互(human–computer interaction)被广泛认为是21世纪的基础,并预计将改变我们的家庭和车辆、教育、制造业以及养老院和核反应堆控制室等不同环境中的技术面貌。

彼得罗宾逊教授解释说,为了让人机交互达到预期,智能机器需要了解人类及其交流的环境,然后以有意义的方式对其做出反应。他在计算机实验室的团队正在建立一套系统,通过观察面部表情,分析语气语调,并结合身体语言和态度来推断人类的感受。该团队还正在构建能够识别和表达情感的计算机虚拟人物和物理机器人。

人机交互技术研究的最新趋势
人机交互技术研究的最新趋势

读心术机器

大多数电脑都是“盲心的”。他们不知道用户在想什么,也无法对用户情绪状态的变化做出反应——车辆导航系统常常执意要求掉头的指令,完全无视驾驶员的恼怒和困惑。

尽管人类可以注意到他人的心理状态,并利用这些暗示来改变自己的行为,这一过程被称为“意识理论”,但这种能力并不是每个人都能拥有的。事实上,自闭症谱系疾病的一个特点就是很难从非语言线索(如面部表情)来理解他人的意识和情绪。

罗宾逊教授的团队打算设计一种能够阅读大脑的计算机,使其能够提取、分析和理解面部信息。该研究小组利用了剑桥自闭症研究中心主任西蒙·巴隆·科恩教授最新的研究成果,他设计了一个详细的分类,对412种截然不同的精神状态进行了分类,并制作了一个由演员表演的2500个视频剪辑库。这个数据库是一个以计算机技术为基础的帮助自闭症患者的研究的一部分,计算机实验室团队已经用它来训练他们的计算机系统。

在数据库的帮助下,利用数码摄像机,计算机跟踪面部24个特征点,实时分析面部表情、头部运动、形状和色调。为了推断这意味着什么,系统使用贝叶斯算法和机器学习来计算概率,例如,头部点头、微笑和扬起的眉毛等组合可能意味着兴趣。令人惊讶的是,在分析演员时,计算机的整体准确度超过75%,而非演员的整体准确度超过60%,这个准确度足以在人类中排名前5%。

复杂的情绪

罗宾逊教授解释说,人机交互是一个不断发展的研究领域。“我们的创新已经超越了简单基本情绪的识别,目前瞄准的是识别复杂心理状态。”

面部表情清楚地表达了恐惧、愤怒、厌恶和惊讶等基本情绪,因此可以在静态照片中辨认出来。其他的精神状态,例如缺乏理解和困惑,太复杂了,无法在照片中捕捉,因为它们发生在几秒钟之内,或者表现为运动的变化组合。

正是这些复杂的情绪,伊恩·戴维斯,这个团队中的六个研究生之一,通过生理测量和眼睛跟踪,捕捉到了他正在研究的应用类型:指挥和控制系统,比如紧急服务或发电站使用的系统。在这种场景里,能够识别一个人是什么时候疲倦或困惑,可能有助于提高安全和效率。他解释说,驾驶等更为常见的场景甚至还有好处:“如果汽车的系统能够识别出驾驶员是困惑的,它可以避免再增加额外的信息——可能关闭收音机或简化导航指令。”

面部分析系统的一个常见问题是人们的手在脸上移动的轨迹。这种系统通常把手势视为不必要的“干扰源”,事实上,手势是一个重要的信息来源——例如,当人们集中注意力时,可能会紧握下巴,或在震惊时捂住嘴。马瓦·马哈茂德正在研究如何映射这些手势的含义,将这些信息添加到面部表情的多模式分析中。同时,Ntombi Banda正在构建多模式系统,将面部分析、声音音调和身体运动相结合,以提高识别精度。

机器人和化身

在最近的一次会议上,微软的董事长比尔盖茨预测下一个重大的技术将是机器人技术。例如,想象一下,如果一个机器人足够强大,能够在家里完成繁重的任务——比如抬病人,需要在家里进行辅助护理——同时又能够理解人类的感受,这将是多么有用。或者想象一下,一个基于虚拟人物的教学辅助工具,它足够敏感,能够在学生无法及时吸收知识时相应地进行调整。

罗宾逊教授说:“机器人或化身在正确的时间表达正确的东西很重要。”他们不仅需要通过准确地感知人类表达的内容来识别非语言行为,还需要自己生成这样的表达。

Alyx是由ValveSoftware游戏《半衰期2》(Half-Life2)中的电脑生成的虚拟人物,它能识别和回应快乐、惊喜、困惑、兴趣和无聊。她接受了塔达斯的“训练”,使用人类面部表情的模型,使机器人化身的情绪变得可立即识别。他解释说,Alyx的情感被特别挑选:“这一系列很适合远程通信的应用,如呼叫中心、网上购物或在线教学等需要适应用户情感的场景。”

查尔斯是由汉森机器人公司专门为团队设计的一款机器人头。他的眼睛里有监控面部表情的摄像头,头骨里有24个马达,可以将他柔韧的硅基“皮肤”拉动出表情,他能够表现出一系列的表情。劳雷尔·里克一直在测试查尔斯如何被用来训练年轻的医生:“利用从真实病人那里收集的数据,查尔斯可以真实地模拟出面部出现的运动障碍,如脑瘫和肌张力障碍。我们希望这样一个现实的模拟器能够让临床医学的学生练习他们的沟通和诊断技能。”她预测有一天像查尔斯这样的机器人也可以用于患者康复,例如帮助中风患者重新掌控面部肌肉。

查尔斯接受了自闭症研究中心提供的表情数据的训练,现在安德拉·亚当斯正在准备将其作为一种指导工具来帮助自闭症谱系疾病患者。“有这种病症的儿童很难理解社交互动的细微差别。查尔斯可以帮助他们练习轮流交谈、保持眼神注视和从面部表情中识别情绪。

彼得罗宾逊的团队在人机交互研究领域的前沿工作,将心理学、计算机视觉分析、信号处理和机器学习以及构建和评估复杂程序系统的专业知识结合起来。正如他解释的那样:“在人机交互中,许多最有趣的挑战在于学科之间的交叉地带。”

欲了解更多信息,请联系剑桥大学计算机实验室的彼得·罗宾逊教授(pr10@cam.ac.uk)

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
腾讯云小微
腾讯云小微,是一套腾讯云的智能服务系统,也是一个智能服务开放平台,接入小微的硬件可以快速具备听觉和视觉感知能力,帮助智能硬件厂商实现语音人机互动和音视频服务能力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档