首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

科学家正在教机器人社交行为,以后机器人也会嫌你打游戏太菜

人们有一个关于机器人(人工智能)说法:由于它们没有人类的社交技能,它们将永远不能真正理解人类。

不过已经有一些研究者在采用新方法给予机器人“社交技巧”,使它们与人类更好地交互。

其中一项研究由MIT的研究者主导,他们团队开发了一套用于自动驾驶的机器学习系统,目标是学习路面上其他驾驶者的行为特征。

他们从人类的驾驶情况来学习驾驶者在道路上会做出怎样的行为。由于人类驾驶者的行为会各不相同,因此这些数据有助于帮助无人驾驶汽车来预判危险。

研究者说这套方法其实是从社会心理学领域“借”过来的。在实验中,科学家们建立了一个系统,尝试从一位人类司机的驾驶风格来判断他属于“自私”的风格,还是“为他人着想”的风格。在道路测试时,装备了这套系统的自动驾驶车辆,对路上其他驾驶员的行为判断准确率提高了25%。

例如在一次测试中,自动驾驶车正在准备左转。测试结果发现,如果它预测到迎面来的车辆归为“自私”类型,则判断为不安全,自动驾驶车会选择先等待再转弯;而如果预测迎面来的车辆是“不自私”的,它就会认为安全风险较小而不等待直接左转。

Wilko Schwarting是这次研究报导的首席作家。他谈到,任何要与人类进行协作的机器人,都必须学习人类的意图,这样才能更好地理解人类的行为。

“人们会把自己‘合作性’或‘竞争性’的意图表现在其驾驶行为中,”Schwarting说。他还说MIT的这次实验就是力图研究怎样的系统能被训练,来判断和预测这些人类行为。

这个系统是为了正确理解在不同的驾驶情况下的行为。研究者说,即使是最“合作”的驾驶员,也应该知道有时迅速果断的决策是避免危险所必须的。

MIT的团队还希望扩大他们的研究模型,对自动驾驶汽车需要处理的其他事物进行预测。包括行走在汽车附近的行人、自行车或其他。

他们说相信这类技术也能够应用在人类驾驶的汽车上,可以作为预警系统,将路上可能的危险驾驶情况告知驾驶员。

另一项社会实验包含人与机器人的一场游戏竞争。来自卡内基·梅隆大学的研究者,研究了机器人的“损话”是否会影响人类玩家与机器人玩家对战时的表现。这里的“损话”指的是别人说的一些消极或侮辱性的话,通常是为了故意让别人犯错。

一个名为“胡椒”的人形机器人,被编程为可以对人类对手说“我不得不说你很蔡。”之类的损话,还有“刚刚的那局游戏中,您玩得是个啥呀?”这类的骚话。

实验中,人类玩家会与机器人玩35局游戏。游戏名为“守护与宝藏”,是用来学习决策的。研究结果表明,被机器人“批评”的玩家要比受“表扬”的玩家表现得更“蔡”一些。

AI会觉得你打游戏很菜么?答案是会的

这项研究的主导之一是卡内基·梅隆大学软件研究所的一名助理教授——方飞。她认为这是一次不同于大多数人-机器人研究的非主流实验。“这是第一次人与机器人在非合作情形下的人-机器人研究实验,”她说。

该研究表明人形机器人已经有能力影响人类的行为,就像人类自己做的那样。方飞说这项能力在未来会越来越重要,尤其是当机器与人类需要经常交互的时期。

“我们自然希望‘家庭助理’会跟我们和睦相处,但在如网购等情形下,它们也可能有跟我们截然不同的目标。”她说。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191207A0FPDH00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券