从NIPS 2017看AI未来:黄仁勋等提出新方向:机器人不尬聊、AI可学习并预测人类行为

新智元编译

编译:刘光明

【新智元导读】愈来愈热的人工智能的下一步将走向哪里?见仁见智。不过,最好的莫过于在近期美国加州长滩举行的NIPS 2017上寻找答案。这次大会上展示的基于机器深度学习的Demo,比如可以随意与人类沟通互动的MILABOT聊天机器人以及可以学习并预测人类动作的伯克利大学带来的机器人,可以一叶知秋。

AI的下一步在哪里?可能没有比这周在美国加州长滩举办的NIPS 2017上大会和专题论坛能给到更好的答案了。

蒙特利尔大学团队在展台上展示的MILABOT机器人聊天非常有趣。这台机器人的特点是:可以和用户随意对话,话题可以从猫的俏皮话到你和你妈妈关系的问题探索。

“许多人和它聊个人生活的话题能聊上20-30分钟,"MILABOT的开发者之一Iulian Vlad Serban在演示时介绍说。

当被问到AI的未来时,MILABOT回答说,你可以从这次大会上7000多学生和研究人员在大会长廊里自由交谈时听到答案,“我还需要再思考一会。”

和这次大会上的每个人一样,全球首屈一指的AI巨头英伟达也在试图回答这个问题。一方面,英伟达通过其AI实验室或NVAIL项目支持像Serban这样研究人员的工作,他们从工程师中提供技术助手来支持的20所顶级高校或机构,并允许学生访问英伟达公司的超级计算机系统DGX AI。

观察和学习

一个答案:深度学习将帮助人类与机器交流更顺畅。

“我认为几年后机器将会自主化,”在参观我们的展台时,英伟达CEO黄仁勋停下来,与伯克利大学的Sergey Levine、 Chelsea Finn和Frederik Ebert谈到他们的工作时说到。“你们处在人工智能和能与物理世界互动的机器的中间。”

这个来自伯克利AI研究实验室的团队在这次NIPS上带来的Demo,展示了新的深度学习技术如何把这个变成可能。

你可以把一个类似汽车钥匙或一副眼镜放在其中一个Demo机器人的工作台,然后你点击用户界面,来表明你希望哪台机器人移动这个物件,希望它运行的位置。

然后,通过视频可以展示机器人移动这个物件的动作,随后,机器人将用这个预测来规划它的下一步行动。

多亏了创新的卷积神经网络的设计,这台机器人在上月仅被一些学生训练一天,就产生了令人惊讶的技巧。

在第二个演示中,通过演示一个任务,比如引导一个机械臂把某些东西放到一个容器里。通过这个演示视频,机器人能找到这个容器,并完成相同的项目。

与人类互动

另一个迷倒与会者的Demo是MILABOT,许多研究人员渴望找到难倒这台聊天机器人的方式。

只要不会折磨,像其中的一个研究人员用一个“有歧义的代词”来欺骗它那样,它都能搞定,即使是它要去处理一个很坏的双关语。

当被问到是否喜欢猫时,它回应说“我不养猫,但如果我养了,我将会喜欢它喵呜的叫声。”(当然,猫时流传在AI研究人员的一个笑料)

这台聊天机器人是蒙特利尔学习算法机构研发出来参加Amazon Alexa奖比赛的,它依赖于其他22种模型而不是会话模型。

对于计算机科学家来说,通过语音或文字与人类闲聊是一个挑战。自从麻省理工的Joseph Weizenbaum创造出的ELIZA,距今已至少有40年了。ELIZA仅能应对人类的肤浅问题。

不像ELIZA,MILABOT是基于其创造者称之为“套装”的模型。包括样板模型,单词包模型,序列到序列神经网络,潜在变量神经网络模型,以及原始ELIZA的变体。

真正的诀窍是使用深度强化学习来选择哪种模型。要做到这一点,MILABOT采用了强化学习的方式:软件代理通过不断放大与人类沟通交流中获取数据包来学习。

它并不完美,但它足以吸引人群。让他们保持不断与整个软件互动的娱乐。

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20171211A0D5IZ00?refer=cp_1026

同媒体快讯

相关快讯

扫码关注云+社区