MIT机器人学会“读心术”操控人员的大脑活动可控制机器人

本文共计约900字,阅读时间约5分钟。

麻省理工学院(MIT)和波士顿大学人工智能团队共同研发的那款红灰相间的机器人Baxter最近又出来刷存在感了。这个表情看起来有点呆萌的机器人很会“看人脸色”,根据探测到的人脑脑电波(EEG)或者手势信号传感器来审视自己的行为是否正确。如果人类判断机器人Baxter操作错误的话,它就会乖乖纠正错误。

那么Baxter究竟是如何读取人类的判断的?

Baxter的核心技术是脑电图监视器。它可以通过算法计算出人类在思考什么,再将指令传递给机器人。这个脑电图监视器的算法只需要10-30毫秒就可以知晓人类的想法。

来自麻省理工学院的机器人专家Daniela Rus和同事们与七位志愿者一起进行了测试。志愿者在前臂上佩戴了检测电极的装置,在头部佩戴了一个插满了电极的“帽子”。这个“帽子”可以监测到志愿者脑部的脑电图(EEG),一旦寻找到被称为“误差相关电位(ErrP)”的特定脑信号,系统就会向机器人发送警报,让Baxter停止工作。

什么是“误差相关电位(ErrP)”的特定脑信号呢?这是一种非常微弱的信号,通常人们的大脑在看到错误时产生,但仍然可以被电极捕捉到。当找到这个脑信号的时候,Baxter就可以判断自己的行为是否正确,并及时作出纠正。如果操作员脑部没有“误差相关电位(ErrP)”的信号,机器人则将会继续目前的动作和任务。

具体来讲,在这个测试里面,每个测试者负责监督一个机器人,机器人将一台钻机对准模拟飞机机身上三个可能的目标之中的一个,每个目标都由一个LED灯泡标记。每当机器人选择了错误的目标时,测试者就会向左或向右滑动手腕以指导机器人,纠正它的选择,机器就会将钻头移向适当的目标。在1000多次试验中,机器人最初大约70%的时间都是针对正确的目标,而在人为干预下,超过97%的时间选择了正确的目标。

目前人们已经可以通过编写程序,利用触摸屏交互或是语音交互控制人工智能机器人。如果有一天这项通过意念”控制”机器人的技术成熟的话,我们或许能见证童年时期的各类脑洞变成现实。

虽然Baxter目前只能执行简单的动作,但研究人员希望能够继续优化反馈系统,能够让操作人员控制机器人更加复杂的作业。这种更加高效的控制机器人的方式为人类如何管理“机器工人”开辟了新的可能性。

除此之外,在其他领域这项技术也有很大的应用潜力。Baxter研发的波士顿大学博士 Salazar-Gomez就指出,这个系统在未来或许可以方便那些口头交流有障碍的病患及残疾群体和外界交流,让别人读懂他们的想法。

研究项目主管Daniela Rus说,“我们希望摆脱人们必须适应机器限制的世界”。不过如果人脑不可避免地出错的话,是否会误导机器人产生不利的影响呢?

原文来源:

Engadget:https://www.engadget.com/2018/06/20/mit-uses-brain-signals-and-hand-gestures-to-control-robots/

ScienceNews: https://www.sciencenews.org/article/robots-brain-waves-read-your-mind

- End -

编译:ZhiLin

本文章图片来源于网络

想要了解更多人工智能资讯、行业动态,欢迎关注声学在线公众号(ID:soundonline)!

加入声学在线:hr@soundonline.org

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180620A1FHFH00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券