首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

自然杂志:自动驾驶商业化面临哪些心理障碍?

文章来源:厚势(iHoushi)

在 9 月 11 日出版的英国《自然》杂志《人类行为》(Human Behavior)子刊上,来自麻省理工学院媒体实验室、加州大学尔湾分校以及法国图卢兹经济学院的三位学者伊亚德·拉万(Iyad Rahwan)、阿奇姆·谢里夫(Azim Shariff)、让·弗朗索瓦·博纳丰(Jean-François Bonnefon)联合发表文章《采用自动驾驶汽车过程中的心理障碍》(Psychological Roadblocks to the Adoption of Self-Driving Vehicles)。

在该评论文章中,三位学者介绍了众多阻碍自动驾驶技术市场化的心理障碍中的三项:

「伦理困境」:遇到危险时,自动驾驶系统是优先考虑乘客的利益,还是行人或其它驾驶员的利益;

「风险厌恶」:人们并不总是以不偏不倚的理性思维来理解风险,会受到「可得性启发法」(availability heuristic)与「情感启发法」(affective heuristic)等心理效应的影响;

「缺乏透明」:大部分人并不了解自动驾驶汽车是怎么想的或者它作出某种行为的原因,这使得人们很难预测自动驾驶汽车的行为,从而很难对其产生信任。

他们甚至认为,如果不克服这些心理障碍,自动驾驶技术在商业上便不可能获得成功,在自动驾驶技术上所做的努力也有付诸东流之虞。

(注:在本文中,「无人驾驶技术」、「全自动驾驶技术」都表示 SAE Level 4 及以上的自动驾驶技术)

引子

从理论上讲,作为汽车主动安全技术终极形态,无人驾驶技术除了能够改善行车的安全性,配合网联功能以及共享经济的商业模式后,还能提升整个交通系统的运行效率。由于未来市场潜力巨大,自动驾驶产业吸引到了包括汽车制造商、一级供应商、科技公司与创业公司在内的各路参与方。目前,它们的工作重心放在解决实现全自动驾驶的技术难题上。

然而,在自动驾驶汽车大规模推向市场的过程中,所将碰到的最大障碍可能会来自消费者心理层面,而不是技术层面。据美国汽车协会(American Automobile Association)在今年 3 月所做的调查显示,78 % 的美国人表示害怕乘坐自动驾驶汽车,只有 19 % 的人表示会信任自动驾驶汽车。

从心理学的角度看,「信任」可被定义为「人在追求某种好处时,虽然会使自身面临危险,但仍感到舒适心安」的心理状态。随着自动驾驶系统变得复杂到难以被大部分普通民众所理解,用户在使用过程中也更易遇到危险,人们对自动驾驶汽车的是否信任将成为其商业化成败的重要决定因素。原因很简单,人对风险有天生的厌恶感,如果民众不信任某一新生事物,他们自然不会去尝试使用和接受它。

那产生不信任感的心理学因素有哪些?有办法来解决吗?三位学者,伊亚德·拉万、阿奇姆·谢里夫和让·弗朗索瓦·博纳丰,在《自然》杂志《人类行为》子刊上提出了自己的观点。

「伦理困境」

在某些场景下,自动驾驶汽车需要作出伦理决策(ethical decision),而这给工程师、监管者和公众都带来一系列进退两难的困境。

图 1 自动驾驶「伦理困境」示意图

其中,首当其冲的便是经典伦理学问题——「电车难题」(The Trolley Problem)的自动驾驶版本(如图 1 所示):当可以通过增加多数非本车乘客(如行人或其它车上的乘客)的风险来降低本车少数乘客的受伤风险时,自动驾驶系统该如何操作?

自动驾驶系统可以表现得功利主义(utilitarian)——尽量减少对所有相关人员的总体风险,也可以表现得自我保护(self-protective)——更关注本车乘客的安全。人类驾驶员遇到这种情况,会凭借本能在刹那间作出抉择,在那一刹那他们根本没时间去思考任何伦理原则。因此,在这方面,自动驾驶系统的设计者并不能参考人类驾驶员的经验,他们必须亲自作出伦理判断并为此负责。

上述伦理困境的存在又会进一步引发社会困境,即不同人群对于自动驾驶系统该遵守何种伦理准则的意见是不一致的:

作为事不关己的第三方纸上谈兵时,认为功利主义方法最符合道德准则;

作为众多行人中的一员时,又希望牺牲少数、保护多数;

但作为消费者时,又希望乘坐的自动驾驶汽车优先保护本车乘客。

最终的结果是,不论采用何种策略,对自动驾驶汽车的制造商都不利:

优先保护本车人员的做法会点燃众怒,引发公众对自动驾驶汽车上路行驶的集体抵制;

采用功利主义方法的话,会吓跑消费者,最终生意还是做不成!

如果自动驾驶汽车要赢得公众的信任,上述伦理困境和社会困境都需要得到解决。由于社会体制的原因,监管机构不太可能会采纳严格自我保护的解决方案,即自动驾驶汽车总是最小化本车乘客的危险而最大化他人的潜在受伤风险。因此,我们必须努力消除消费者对「自动驾驶汽车可能会伤害自己」的恐惧。

为了克服这种恐惧,各方需要使人们在使用自动驾驶汽车时既感到安全又拥有道德上的优越感。

为了使乘客感到安全,我们必须懂得如何最有效地传达出以下意思:如果总体的交通事故数量下降的话,乘客自身在日常使用交通时所遇到的风险也会下降。由此,在自动驾驶系统通过增加乘客的小额潜在风险来降低事故总体发生风险时,不会遭到非理性抵制。

通过将顾及事故总体风险与个人形象及声誉挂钩,可以达到更好的效果,因为美德信号是购买或使用某一产品的强大动力。例如,以前人们会通过购买丰田普锐斯混合动力汽车来彰显自己是个道德高尚的环保人士。类似地,如果自动驾驶汽车也允许消费者表明自己是个顾及公共利益的好公民的话,其市场化道路或许会更顺畅一些。

「风险厌恶」

图 2 2016 年 5 月,在美国佛罗里达州发生车祸的特斯拉汽车

2016 年 5 月,当特斯拉自动驾驶系统 Autopilot 首次涉嫌引发交通事故时(受损车辆如图 2 所示),几乎每家主流新闻机构都报道了这一事件,这与其它 40200 起同在美国造成伤亡的交通事故所得到的待遇截然不同。

如同媒体对于飞机失事事件的不成比例的关注,在媒体上出现大量涉及自动驾驶汽车交通事故的报道,也会引发和放大人们的恐惧感。在心理学中,这最种现象被称为「可得性启发法」(当某一风险事件更容易被记起时,人们主观上会认为它更危险)和「情感启发法」(当某一风险事件能够唤起逼真的情绪反应时,人们会认为它更危险)。

对于自动驾驶汽车来说,更糟糕的是,这些反应可能会因算法厌恶(algorithm aversion)而变得更加复杂,即相比于时不时犯错的人类,人们对一直出错的决策算法会更快地丧失信任。

克服这些强大的心理效应可能会特别困难,但也并不是没有机会。各企业的自动驾驶汽车发言人应该让公众为事故发生的不可避免性做好准备——不过分承诺自动驾驶系统的绝对可靠,但仍要强调自动驾驶相比于人类驾驶的安全优势。此外,制造商应该对算法改进持开放态度——自动驾驶汽车最好被描绘成「处于不断改进中」,而不是「已经达到完美」。

「缺乏透明」

图 3 美国中央情报局(Central Intelligence Agency,CIA)

美国中央情报局 CIA 的声誉一直受到美国民众的质疑,部分原因在于公众认知上的不对称——CIA 的失败经历往往人尽皆知,但其成功经历往往不为外人所知。类似地,消费者们会敏锐地意识到自动驾驶汽车发生的罕见事故,引发前文中所提到的反应,但可能不会意识到工程师们所做的细微改进。

这种信息的不对称是阻碍人们信任自动驾驶汽车的更大的心理障碍的一部分——对于消费者而言,自动驾驶系统的决策过程是不透明的。而只有在能够轻松预测和理解其他人或物体的行为时,人们才愿意将自己的生命财产安全交付给他/它。

但是,考虑到自动驾驶汽车所具有的智能是通过深度学习来实现的,连程序员自己都不了解隐含在神经网络中的决策制定的过程,更不用说是消费者了。退一步说,即便有对决策过程的详细描述,把它直接丢给消费者肯定也不行,他们理解不了。

因此,对于自动驾驶汽车来说,尽管增加透明度可以促进信任,但对汽车行为解释得太过透明也会使乘客压力山大。重要的是,要确定通过提供哪些关键信息才能使消费者了解自动驾驶汽车心智模型(mental model),这需要进行进一步研究。

MORE

1.

自动驾驶之高精度地图技术的发展动向

2.美国《自动驾驶系统 2.0:安全愿景》中文版全文

3.为什么特斯拉最近获得了140辆自动驾驶卡车Semi的大单?

4.不想进军自动驾驶的不是好的手机商——细数那些进军自动驾驶的手机制造商(一)

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171225A0A5C100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券