只要人类让出驾驶座,每年就能少死百万人

文|韦青青

“钢铁神经病直男”马斯克先生最近又来劲儿了,接连发推叨逼叨,说自家的自动驾驶技术越来越牛逼——

“如果你的特斯拉车龄在两年内,一定要试试自动驾驶功能,你会有不可思议的惊喜!车子会自动超过其它车速较慢的车,还会自动驶过十字路口、进入匝道。”

“已经在开发软件中测试交通信号灯、停车和环岛的识别。很快,特斯拉就可以实现完全的自动驾驶,一直从你的家里到达工作地点。”

倘若此言不虚,自动驾驶时代已经如此触手可及,委实值得喜大普奔。

因为有数据显示,现如今,每年有将近125万人死于车祸,足足是战争、犯罪再加上恐怖袭击死亡人数的两倍,而在这些事故中,超过90%是人为造成的,有人酒驾,有人边开车边看手机,有人疲劳驾驶,有人开车的时候只顾着发呆亦或摸副驾大腿……

而这些错误,自动驾驶汽车永远都不会犯。据预测,如果把所有驾驶工作完全交由计算机处理,将能够减少约90%的道路伤亡。换句话说,只要人类让出驾驶座、全面改用自动驾驶汽车,每年就能少死亡100万人。

或曰,计算机永远不会完美,这样那样的错误还是会发生,牛逼如黑客帝国里的Matrix,终究都难免要有Bug。然而,如果只是要取代人类驾驶员,计算机并不需要做到完美无缺,只要比人类更好就行了。鉴于人类驾驶员每年造成超过100万人因车祸死亡,计算机要表现得比人类好并不是什么太难的事。

诚如近年来红极一时的尤瓦尔·赫拉利在他的“简史三部曲”里所说,一如所有的哺乳动物,人类每每都是靠着情绪和直觉来快速做出各种关乎生死的决定,无数危急的瞬间,我们所表现出的,不过就是自然选择把人类塑造成的样子。

从几百万个祖先那里,我们继承了他们的愤怒、恐惧和欲望,而这些祖先每一个都通过了严格的自然选择质量管控测试。但不幸的是,适合在100万年前非洲大草原上生存和繁殖的特点,不见得会让你在21世纪的高速公路上是个负责的人。

而计算机算法并不是由自然选择塑造而成的,只要能想办法把技术规则乃至伦理道德用精确的数字和统计编写成程序,那简直就无异于让舒马赫和康德合二为一担任每辆车的驾驶员一样。

你会希望旁边那辆车的驾驶员是谁?是某个喝醉的小鬼,还是舒马赫和康德的合体?答案想来自不待言。

不过且慢,说到伦理,这里似乎有个著名的难题——

假设有两个小孩追球,忽然冲到一辆自动驾驶汽车的前方。开着这台车的计算机立刻完成运算,得出结论:要避免撞到两个小孩的唯一方法是转进逆向车道,但这就可能撞上迎面而来的卡车,而根据运算结果,这样一来有70%的可能会让在后座睡得正酣的车主一命归天。

请问,计算机该怎么做决定?

像这样的伦理难题,其实一众先贤大能们已经讨论几千年了,然而却一直绝难有共识,没有哪个答案能让所有哲人都满意,譬如穆勒这样的结果论者(consequentialist,以结果判断行为),他的想法一定会不同于康德这样的义务论者(deontologist,以绝对的规则来判断行为)。

尤瓦尔·赫拉利戏言,或许只能把这个烫手山芋丢给市场,直接生产两款自动驾驶汽车:利他款和自我款。

遇到紧急状况的时候,利他款会为了整体利益而牺牲主人,自我款则会不顾一切保护主人,撞死两个小孩也在所不惜。至于消费者,则可以根据自己偏好的伦理观来选车。这样一来,如果多数人买了自我款,你也不能怪生产商,毕竟,顾客永远是对的。

这并非只是玩笑。

在2015年一项开先河的研究中,研究人员请参与者假想自动驾驶汽车撞到几个路人的情景。大多数参与者都认为,就算可能会牺牲车主,自动驾驶汽车还是应该保全那几个路人的生命,只是,等到再问他们会不会买一部设定为“牺牲车主、顾全整体利益”的车时,大多数都说“不”。如果涉及自身,他们还是会比较喜欢自我款。

想象一下这个情境:你买了一辆新车,但启用之前得先打开设置菜单,勾选一个选项:如果发生事故,你是希望这辆车牺牲你的性命,还是牺牲另一辆车上那家人的性命。你真的想要做这个选择吗?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181212A0CIO600?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券