首页
学习
活动
专区
工具
TVP
发布

你用手机打电话,我用意念点外卖

前 言

AI 技术发展,语音助手之间的大战也打得如火如荼,但对于受众来说,即使这东西再好用,但要若无其事的在人群中喊一句 Siri 给我订个外卖,或者 Siri 帮我查一下明天的天气,都还是会羞耻心爆棚。

要做到让语音助手不再局限于手机和智能音箱,而是如同电影《Her》中一样随时随地陪伴身边给予帮助,除了该领域的科技发展,看来还得大家一起跨越心理障碍。倘若在开口之前,人工智能便读取到使用者的用意,那一切就简单的多了。

01

无声的控制

一项来自MIT的研究项目,将无声控制从理念带入现实,并做出了工程样品Alter Ego。该项目的主导人,Arnav Kapur 在佩戴 Alter Ego 接受美国节目60 Minutes 采访时,向大众展示了其基本使用场景。

整个过程他并未借助任何其他工具,而是通过意念将问题抛给佩戴在脸上的ALterEgo,并通过它进行信息检索后,借由骨传导耳机里传来的语音获得最终答案。

▲接受 60 minutes 节目组测试

当然除了用在知识大赛上作弊以外,AlterEgo还有许多其他应用场景。

▲远程控制电视

▲询问时间

据该项目的负责人Arnav Kapur透露,开展这个项目的初衷是为了解决某些声音无法有效被识别而又需要依靠远程控制的时刻,例如战斗机的飞行员的工作环境十分嘈杂,声音并不能被很好的检测,这个时候无声控制系统就显得帮助很大了。

而现在,项目团队希望AlterEgo能在将来与物联网技术相结合,成为更加便利的可穿戴控制设备。试想一下如果能与之前暴死的Googleglass相结合的话,那么一念之间万事都将在眼前,万物都能控制。

▲并不好用的Google Glass

02

所看不到的微妙信息传递

AlterEgo 的确很酷,无需语音单靠意念就能做到远程控制,听起来很玄学,但其背后却有着十分可靠的科学依据。

当我们开始思考时,大脑电波开始活动,皮肤表层也会有微妙的电脉冲在活动着。传统意念控制,一般会佩戴在头部,检测大脑电波并发出指令。但这种指令往往是行为能动指令,而非具体单词或句子的破译。

▲使用意念遥控汽车

为了能顺利获得未说出口的语音指令,AlterEgo 团队将命令检测仪器安排在了下颚及喉部,而这样做的原因就在于,当我们要说出一个句子时,仍旧需要大脑发出指令,发声部位接收到指令后会产生肌肉信号。

即使这个动作最后并未成行,但肌肉信号依然存在。AlterEgo正是通过检测这种外部不可见的微妙肌肉信号,并加以分析形成言语指令。

关于内部语言系统与外部身体之间的联系这一概念,从上世纪50年代开始就引起了广泛注意,针对的调查和研究也从那时开始。但即使是60多年过去了,要准确的从面部检测到具体言语单词还是十分有难度的。

为了能完成这个目标,AlterEgo团队进行了数次实验。首先为了要确认脸部哪些区域可以更可靠的检测到肌肉神经信号,他们进行了四次同一个单词的默念,并且每一次都将16个电极检测组安排在不同区域进行检测。

结果表明,人的脸部有七个特定的电极位置始终可以区分默读的单词,于是依据这项实验成果团队造出了AlterEgo的原型机,接触下巴及脸部的位置安置了七个触点分别对应七个特定的电极位置。

之后经过筛选发现仅保留四个触点也能够达到同样的效果,于是便改进成为了现在的更美观用于佩戴的AlterEgo。

在搜集到了神经信号后,该团队又进行了大量的数据分析,将不同的信号与相应的言语单词对应翻译,最终通过系统形成一条完整的语言命令。

当然这套运算系统并不是放之四海而皆准的,不同的人其神经信号并不完全一致。所以为了测试这套设备的可用性,他们在10名志愿者身上进行了测试,根据个体的不同分别定制了神经信号的定制算法,最终由神经信号翻译为具体言语的准确率平均在92%左右。

由于必须要使得发声部位能顺利接收到大脑发出的指令并产生肌肉信号,所以这个无声意念控制要求使用者要将指令在心中默念,这需要一定的专注力。

不过也正因如此,所以这套设备目前而言还比较安全,并不会侵犯到使用者的隐私,随意读取个人意识。

(本文来源自网络。如有疑问,请及时联系小编)

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180508B1WAZQ00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券