首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Meta开发读脑AI,以非侵入式方法推测受试者脑海中所想单词

Meta最新开发的模型,可在3秒的大脑活动中,从793个单词字汇表中,解码出相对应的语音片段,前10名单词的准确率高达73%,研究人员提到,这已经是人们每天常用字汇的一大部分。

这项研究的目标是要开发一个人工智能模型,以非侵入性的方式,从大脑的活动中解码语音。之所以这项研究很重要,是因为全世界每年都有数千万人,因为创伤性脑损伤使他们无法说话、打字或是手势进行交流,因此如果发展出非侵入性从大脑活动解码语言的技术,这些人便可更方便地与其他人交流。

解码大脑活动是脑神经科学家一直努力的方向,但是到目前为止,大部分的研究都依赖侵入式的方式记录大脑活动,虽然这些设备比无创的方法能够记录更清晰的信号,但是却需要神经外科介入。无创的方法提供一种更为安全且可扩展的解决分案,能够使更多人的人受益,但是研究人员表示,无创方法的挑战很大,因为记录大脑活动包含许多噪声,且因为各种原因,在每个人头上安装传感器的位置都不同,每个人的记录会有很大的差异。

研究人员以比对学习技术训练深度学习模型,再用该模型对齐大脑活动记录和语音。研究人员使用FAIR团队所开发的开源自监督学习模型wave2vec 2.0,并用这个模型来识别听有声读物受试者大脑海中的语音表达。

这项研究所使用的非侵入性记录技术,包括脑电图(EEG)和脑磁波仪(MEG),其分别记录神经元活动所引起的电场和磁场波动,这两个系统每秒可以使用数百个传感器,拍摄大约1,000个宏观大脑活动的快照。

Meta使用了来自学术机构4个开源的脑电图和脑磁波仪资料集,其中含有169名健康受试者150小时的脑部记录,研究人员将这些资料输入到一个大脑模型中,但因为脑电图和脑磁波仪记录有很大的实例差异,影响的因素包含大脑解剖结构、神经功能作用的位置和时间差异,还有记录时传感器安装的位置,因此大脑模型的功能便是将这些脑部信号转换到一个通用空间中。

wav2vec 2.0则能够从语音,自动生成与大脑一致的语音表示,最后,Meta的架构会学习将大脑模型的输出和语音的深度表示对齐,如此就能比对出大脑的信号对应的语音。

Meta所发展的这个人工智能系统可以执行零样本分类,也就是分析一个大脑活动片段,并从大量新的音频片段中,推断受试者听到的对应片段,研究人员提到,这是一个重要的成果,因为其证明人工智能能够在接收语音时,成功解码存在噪声的大脑活动记录。

不过这项研究工作仅是最终目标的一小部分,要实现让脑创伤患者交流,需要推进研究到语音生成,但目前已经让人工智能能够更好地理解人类大脑。Meta研究人员借由公开这项研究成果,以推进该领域的研究。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20220902A07CEM00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券