研究人员教自动驾驶汽车应对非理性人类

一组研究人员最近确定,人类驾驶员和自动驾驶汽车都倾向于优先考虑自己车辆的安全性而不是周围的人。人是自私的,人工智能的行为很像人,这意味着两者的解决方案是相同的:我们需要学习一些礼貌。

自动化人类行为总是有点蠢,特别是当涉及重型机械并且生命受到威胁时。例如,我们不希望这些机器模仿我们的道路风暴 - 一辆半卡车因被切断而“生气”的形象让人联想到电影“最大超速”的图像。

但我们确实希望这些机器模仿我们对意外事件作出反应的能力。详细记录了特斯拉的自动驾驶仪软件 - 它不是为了取代人类驾驶员 - 未能识别出大型卡车,因为它面向计算机没有预期的方向,并且被涂成了白色。大多数人类驾驶员都不会犯同样的错误。

那么幸福的媒介在哪里?我们如何使无人驾驶汽车不仅比我们更好驾驶,而且更好地处理我们在道路上的不完美行为?据来自加州大学伯克利分校的研究人员称,我们改变了他们的动机。

在最近发表的白皮书中,该团队表示:

我们建议纯粹自私的机器人关心他们的安全和驾驶质量是不够的。他们也应该对其他司机很有礼貌。这是至关重要的,因为人类不是完全理性的,他们的行为将受到机器人汽车的侵略性的影响。 我们提倡机器人应该平衡最小化它给另一个驾驶员带来的不便,并且由于机器人的行为捕捉到人类行为非理性的一个方面,我们可以将其他驾驶员成本的增加归结为不便。

看起来这个问题的答案只是简单地为汽车制定某种阿西莫夫定律:始终给予人类通行权。但是,很容易想象为什么那不是最好的答案。

正如我们之前提到的,人类是自私的。一旦我们发现自动驾驶车辆总是在保护人类方面犯错误,我们就会简单地利用它们 - 或者更具体地利用它们的奖励机制 - 这样我们就可以永远先行了。在一个充满无人驾驶汽车的世界里,人类驾驶员永远是优先考虑的事情,这意味着骑在无人驾驶汽车中至少在理论上总是更慢,效率更低。

据研究人员说:

对于预测人类计划并对其做出反应的方法而言,自私并不是一个问题,因为这导致了保守的机器人总是试图不让路,让人们做他们想做的事。 但是,随着我们转向利用相互作用的游戏理论方面的最新方法,我们的汽车开始变得更具侵略性。他们把人们赶走了,或者在十字路口向前走了一步。虽然这种行为有时很好,但我们不希望一直看到它。

基本上,只是让机器人走开并始终保持打开门的机器人将永远无法到达任何地方。试图最大限度地实现“目标”的“奖励”的机器人可能最终会变得更加激进,因为他们会收集更多的驾驶数据 - 比如人类。两种解决方案都不是最佳的

为了解决这个问题,研究人员想出了一种方法来衡量和量化某些人类驾驶员所采用的“礼貌”机制。毕竟,我们并不总是在街道上尖叫,我们的脸埋在手机里。

它的工作方式:研究人员使用算法对人类驾驶员和自动驾驶车辆的潜在行动进行成本/效益分析。当人类驾驶员与无人驾驶汽车互动时,他们会考虑三种不同的情景:

  1. 如果机器人车没有在那里,人类可以做什么。
  2. 人类可以做什么,只有机器人车只在那里帮助人类。
  3. 如果机器人汽车继续做以前做的事情,人类本可以做些什么。

团队将这些场景转变为计算机可以理解的数学语言,其余的算法完成算法。从本质上讲,他们已经定义并量化了礼貌,并找到了一种让AI在优化培训期间考虑它的方法。研究人员正在教导人工智能通过减少人类的积极性和被动性来寻找一种舒适的媒介,而不是全部或全部。这应该使机器人更容易处理人类驾驶时所做的非理性事情。

这项工作仍处于早期阶段,但应该在很大程度上找出如何整合机器和人类驾驶员而不会加剧我们试图解决的问题。

  • 发表于:
  • 原文链接https://thenextweb.com/artificial-intelligence/2018/08/13/researchers-teach-autonomous-cars-to-deal-with-irrational-humans
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券