特斯拉Model S追尾一辆消防车
近日,美国两起自动驾驶汽车造成的交通事故,无疑是为自动驾驶这个时下火热的话题泼了一盆冷水。
加州卡尔弗城消防局周一在Twitter发消息称,一辆消防车被特斯拉Model S追尾,特斯拉汽车当时的时速高达65英里,司机汇报说启用了Autopilot模式,所幸无人受伤。
去年12月,通用公司一辆雪佛兰 Bolt自动驾驶汽车在旧金山与一辆摩托车相撞,摩托车车主受重伤,并计划起诉通用公司。通用公司认为,事故是摩托车司机造成的,之前并没有引起轩然大波,只是现在被暴露了出来。
汽车生产厂商的意图原本是想通过自动驾驶技术,让驾驶更加安全,然而,加州政府目前要求自动驾驶汽车必须有司机,并且必须可以在短时间内重新控制汽车。
美国国家运输安全委员会(简称NTSB)表示将会对特斯拉Model S事故进行调查。
早在2016年,NTSB就对特斯拉Model S的一起事故进行了调查,该起事故导致司机死亡。特斯拉对此的解释是,“自动驾驶模式让司机在驾驶时把注意力转移到了驾驶以外的地方”。调查报告显示,在37分钟的行驶过程中,司机只有25秒把手放在了方向盘上。
17年12月6日,通用汽车公司自动驾驶汽车的事故是由于该汽车在行驶时,另一辆摩托车高速变道驶过发生碰撞。
通用公司雪佛兰 Bolt自动驾驶汽车
通用公司发言人表示:“在开发自动驾驶技术时,安全性永远是在第一位的。在这起事故中,旧金山警察局调查报告显示,是由于摩托车在非正确的时机并入雪佛兰车行驶的车道,也印证了通用把安全性放在第一位的标准。”
但是,摩托车驾驶员表示,是雪佛兰强行变道导致的事故,他的律师进一步指出,雪佛兰的司机试图抓住方向盘,但是反应不及时,导致了事故。
接连的事故让人不得不重新审视自动驾驶汽车的安全性。
汽车厂商致力于开发全自动驾驶的汽车,但现实却让我们怀疑,机器在真实的道路上,是不是依旧不如人的随机应变。
在2016年的严重事故后,特斯拉对安全系统进行了升级,其中就包括在长时间自动驾驶后会关闭自动驾驶模式,以促使驾驶者把注意力集中在开车上。
事实上,由电脑控制的智能汽车,除了自动驾驶之外还有很多隐藏的风险,除了最严重的系统被黑客入侵之外,连上网络之后的智能汽车具有娱乐、导航甚至是解放双手开始使用手机,这对驾驶来说都可能是致命的风险。
自动驾驶汽车出现的本意,是为了避免人为失误导致的事故,但也带来了另外的危险因素,这也就回归到了一个本质问题:
如何在机器与人之前权衡利弊,才能使机器在与人的交互中,实现效用的最大化?
——本文完——
领取专属 10元无门槛券
私享最新 技术干货