前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >动动嘴就能控制机器人!MIT新研究让机器人理解语境更懂你的话

动动嘴就能控制机器人!MIT新研究让机器人理解语境更懂你的话

作者头像
量子位
发布2018-03-27 15:46:48
5820
发布2018-03-27 15:46:48
举报
文章被收录于专栏:量子位量子位
陈桦 编译自 TechCrunch 量子位 报道 | 公众号 QbitAI

科幻电影里的机器人早就能和人类无障碍沟通了,但在现实生活中,机器人理解自然语言的能力还非常差,稍微复杂一点的指令,就会让它们不知所措。

比如说:把我刚才放下的箱子拿起来。

让机器人明白这样的指令,是MIT计算机科学和人工智能实验室(CSAIL)最近才取得的突破。

视频内容

MIT CSAIL设计出了一种方法,让机器人可以理解并响应以清晰明了的语言发出的语音指令。这个系统已经先进到可以理解涉及语境的指令,例如参考之前的命令和对象。

由CSAIL研究员开发的ComText(“语境中的指令”的缩写)系统提供了“类似Alexa”的机器人语音控制功能。这样的机器人可以理解语境,包括此前的指令,以及与之互动的对象和周围环境。

这意味着,用户可以像与他人互动一样与机器人互动。此前,与机器人的互动是个巨大的挑战,阻碍了机器人在商业场景和一般消费级场景中的应用。即使是在产业界,如果机器人可以理解自然语言语音指令,那么就可以更好地与人类合作。

通过对某些对象的理解,ComText可以用在工作中。例如,你可以告诉它,“我拿着的这个工具是我的工具”。未来,当你对它说“把我的工具拿给我”时,它就会找到正确的工具。

如上图所示,告诉机器人“我刚才放在桌子上的盒子是我的”,然后对它说“拿起我的盒子”,它就能正确理解。

研究人员使用Baxter模型对ComText系统进行了检验。Baxter是Rethink Robotics开发的双臂人形机器人。

ComText在实现过程中采用了不同类型的记忆方式,包括用于一般信息的语义记忆,以及与特定事件关联在一起的情景记忆。

在测试过程中,机器人能在约90%的情况下对语音指令做出正确反应。研究团队希望通过更复杂的输入信息,包括多步指令,以及深化机器人对上下文信息的理解,提高正确响应的水平。

这项研究相关的论文Temporal Grounding Graphs for Language Understanding with Accrued Visual-Linguistic Context发表在刚刚结束的学术会议IJCAI 17上,作者包括MIT的Rohan Paul、Andrei Barbu、Sue Felshin、Boris Katz和Nicholas Roy。

地址:http://static.ijcai.org/proceedings-2017/0629.pdf

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-08-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 陈桦 编译自 TechCrunch 量子位 报道 | 公众号 QbitAI
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档