首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

EmoNet:能将图片跟11种情绪配对起来

据外媒报道,人工智能(AI)也许有一天会比我们人类自己更好地沟通情感。由科罗拉多大学和杜克大学研究人员开发的神经网络模型EmoNet能够准确地将图像跟11种不同的情绪类别配对起来。神经网络是一种计算机模型,其通过一系列的过滤器来学习将输入信号映射到感兴趣的输出。

EmoNet则是通过一个由2185个视频组成的数据库开发而成,这些视频类似于27种不同的情绪类别,从焦虑、兴趣到悲伤、惊讶。虽然该模型能够在高置信区间区分跟“渴望(craving)”、“性欲(sexual desire)”和“恐惧(horror)”相关的图像,但它在识别“困惑(confusion)”、“敬畏(awe)”和“惊讶(surprise)”等被认为是更抽象的情感方面就没有那么强的能力了。该神经网络利用颜色、空间功率谱及图像中物体和人脸的存在对它们进行分类。

现在,科学家们可以利用AI来更好地理解参与者的感受,而不再只是依赖于主观反应而是专注于视觉皮质内的模式--不同的模式会“解码”出不同的情感体验。

研究人员之一Tor Wagner表示:“在衡量情绪方面,我们通常仍局限于问人们感觉如何。我们的成果可以帮助我们直接测量与情感相关的大脑处理。”

除了测量情绪,研究团队还称,AI可以帮助消除心理健康方面的标签。“从‘焦虑(anxiety)’和‘抑郁(depression)’等主观标签转向大脑处理可能会为治疗、处理和干预带来新的目标,”Kragel说道。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190730A08FUP00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券