情感交互成为人机交互的关键因素

至今为止,还没有出现更新的技术与触摸屏进行交互,语音交互或者是普通的键盘输入交互还是占据主要部分。所有这些接口本质上都是由命令驱动的。系统按照所讲的内容去做,无法感知你使用它们时候的情绪状态和使用场景。它不知道你是否快乐,生气,沮丧或焦虑。

Affectiva首席执行官Rana el Kaliouby想要改变这种状况。

“情绪很重要,它们会影响一切,”el Kaliouby在SXSW 2018告诉我。我们的学习方法和沟通方式都受到我们情绪状态的影响。如果一台机器无法检测到情绪,那么事实上他是丢失了大量使用者的信息的。

“大约55%对你的精神状态的猜测是通过你的脸和手势来完成的,”el Kaliouby说。“另外38%是你的语言,你的语气的变化。只有7%是通过你使用的时间。大多数这个行业的公司都忽略掉了这93%的可用数据。”

Affectiva正在挖掘该数据并使用它来增强产品; 它分析了来自87个国家的600多万人的面孔。

一个人如何训练机器来阅读人类的情感?首先,你需要大量的数据集,来自不同种族背景和不同年龄的脸部照片,这些脸部已经被他们当前表达的情感分类。Affectiva雇用了一小部分高情商(Emotional Quotient)工作人员来帮助建立数据库。

对于情绪机器的应用是显而易见的。随着客户服务的自动化,自动回复客服在线机器人将需要有越来越高的情感解析水平。2016年全球消费机器人业务价值36亿美元,情绪的智能话分层将成为更快增长这一市场的关键。

  • 发表于:
  • 原文链接https://www.pcmag.com/news/359842/this-company-wants-your-gadgets-to-understand-emotions
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券