前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >用户语音的情感分析 - Rosbank和AI初创公司Neurodata Lab

用户语音的情感分析 - Rosbank和AI初创公司Neurodata Lab

作者头像
用户6026865
发布2019-08-14 16:48:33
8200
发布2019-08-14 16:48:33
举报

俄罗斯综合业务银行(Universal bank)上周宣布,将在呼叫中心中测试情感识别技术(emotion recognition),并且计划将作为先导项目导入。此技术由 Neurodata Lab开发。

Neurodata Lab是一间实时情绪分析和消费者行为分析(real-time emotion analytics and analysis of consumer behavior)的AI初创公司。

通过客户言语自动探究客户满意度

Neurodata Lab通过分析特定的参数,如停顿,声高,总体交谈时间等,分析和计算用户满意指数(Customer Satisfaction Index)。这对于语音交谈和语音到文字沟通都非常适用。

银行经理可以收到用户情绪识别统计数据,以及用户满意度指数(Customer Satisfaction Index)的动态报告(dynamics),以及服务效率的比较性指标(comparative indicator of the effectiveness).

生物技术在各种不同的领域,如银行,获得了越来越广泛的应用。Rosebank致力于(constantly working)持续改善用户服务。我们期望通过用户言语的情绪分析,将我们的服务水平提高到新的水平(bring service up to a new level)。

Nuerodata Lab声明说,Neurodata Lab的技术可以广泛应用于银行,保险和零售领域 (banking, insurance and retail),通过可靠的实时分析,快速的管理用户体验和服务质量(quality of service)。在呼叫中心中,通过语音分析(voice analysis)来监控用户满意度(monitor customer satisfaction)。

情绪识别技术正在崛起 (on the rise)

Neuradata Lab的情绪人工智能技术可以应用在很多的领域。在CES中, Neurodata Lab展示了Promobot,一款可以识别情绪并作出反应的机器人,可以度量在交互过程中客户的满意程度(how satisfied a user is with the interaction)。机器人可以准确的识别7种情绪:

  • 高兴 happyness
  • 失落 sadness
  • 惊讶 surprise
  • 生气 anger
  • 紧张 anxiety
  • 厌恶 disgust
  • 中性状态 neutral state

分为商业版和个人版。商业版可以计算输出用于满意指数,个人版可以计算输出个人微笑指数(smile index)。在其中任何一个情况下(in either scenario),Promobot都可以根据指数作出相应的回答和反应。

用人工智能技术来识别和分析对话情绪的概念并不是新的。在2016年中, IBM的Watson可以通过语音到文字和语调识别技术来度量情绪。

Affectiva是2009年从MIT Media Lab分离出来的公司,开发情绪AI(Emotion AI ) 技术,现已应用于游戏,汽车,机器人,教育,卫生保健,零售,人力资源,视频会议等领域。该技术同时被市场调查公司用以分析用户对不同内容的情绪反应(measure consumer emotion responses to digital content),如电视广告。

语音助理技术未来将支持情绪智能

2018年19月份, Amazon向美国专利和商标局( US Patent and Trademark Office)提交(file patent)了通过语音助理数据分析用户情绪的专利。

该专利标记为(labeled),基于语音的一种用户物理和情绪特征的判定方法(voice-based determination of Physical and Emotional Characteristics of users),通常是用来判定用户是否生病(detect illness was the primary example use case)。专利描述 (depict)通过用户咳嗽来判定用户饿了,从而向其推荐食物。

在2019CES中,Nuance展示了汽车的情绪智能技术。在驾驶面板(dashboard-housed)集成的语音助理通过在分析驾驶员面部表达的情绪的基础上,调整对话模式,如当检测到皱眉的时候(frown)说话简洁(concisely) ,而在检测到微笑的时候则更加唠叨 (verbose manner)。

一种让语音助理更加个性化和人性化(personalized and humanlike)的方式,是让其可以检测到用户的情绪状态,并调整对话方式。导入这些功能仍处于实验室阶段,但随着技术的进步会越来越普遍(will become more commonplace),新的用户场景将会被开发出来,如客户服务,车内体验以及智能音箱的个性化等(in-car experience)

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-03-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 SmellLikeAISpirit 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档