特斯拉自动驾驶又又又出事了。
不同于此前特斯拉自动驾驶出现问题主要集中于追尾或者意外碰撞等常规事故,此次出现的特斯拉自动驾驶竟然拒绝人工操作,从而导致车辆发生交通事故的严重后果。
这是怎么一回事呢?
拒绝人工操作 特斯拉自动驾驶导致车祸
近日,在美国新泽西州,一辆自动驾驶状态特斯拉Model X撞倒了“路上的几个标志”,稀奇的是车主说他本打算手动操作,但被自动驾驶系统拒绝,最终导致事故发生。
据车主回忆,他所驾驶的Model X在使用特斯拉Autopilot自动驾驶系统,原本是要沿着笔直的道路行驶,但是却在行驶中路线偏移,直接冲进两条道路的中间地段,接连撞倒了道路指示牌和其他物体,他曾试图想要夺回自主驾驶权。一般来说,当自动驾驶系统的自动转向功能启用时,驾驶员只需向方向盘施加压力或按下刹车,即可解除驾驶员辅助功能,但是Autopilot并没有要交还的意思。最终驾驶员没有及时控制Model X,所以才导致Model X撞到面目全非,唯一值得庆幸的是驾驶员并没有受到严重伤害。
尽管事故并不严重,但是这背后暴露出来的内容却让人心惊。我们都知道即便自动驾驶、AI等概念再先进,都有出错的可能,为了防止意外的发生,人工操控是终极的手段,也是必不可少的保护措施。而如果自动驾驶真的拒绝人工操控,是否意味着车上人员的生命安全无法保障?
特斯拉官方解释 让人难辨真假
对于此次人工操作不能介入引发的事故,特斯拉官方表示从机械原理上讲,制动系统的工作是独立于Autopilot系统之外的另一个工作循环,也就是说即使Autopilot出现故障也不会影响到驾驶员踩刹车控制车辆,更不会出现系统对车辆的控制权大于驾驶员的情况。并且特斯拉还强调“自2015年我们推出自动驾驶系统以来,我们没有发现任何一起自动驾驶系统拒绝停止的案例。”听起来掷地有声,但是一个三年来没有出现过问题,不能保障现在及未来也不会出现问题。
目前来看,特斯拉与车主的说法有所冲突,无法辨别真假。
而至今,特斯拉的自动驾驶的确已经引起了多场事故。
2016年1月,23岁特斯拉车主高先生驾驶着自己的特斯拉在京港澳高速河北邯郸段行驶过程中,因为没能及时躲避前方道路清扫车发生追尾事故,不幸身亡。一年多后,特斯拉终于承认车辆当时处于自动驾驶状态。
2018年10月,因特斯拉“全自动驾驶”存在夸大宣传,导致死伤事故频发,该功能已被迫下架。
2019年1月6日,美国拉斯维加斯CES展上发生了一起离奇的车祸:自动驾驶中的特斯拉轿车“撞死”一台高价打造的机器人。
此外,德国政府2016年时就曾经叫停特斯拉对于Autopilot(全自动驾驶)一词的使用,并质疑此种叫法存在严重歧义;前不久,瑞典政府还发布公告,出于对特斯拉的在线更新能力和自动驾驶能力的担忧。称将禁止特斯拉汽车在瑞典国内销售6个月。
而就在一片风声鹤唳的状态下,特斯拉的马斯克依然为“自动驾驶”站台。前不久,马斯克更是夸下海口,称特斯拉将在2019年底实现完全的自动驾驶。
自动驾驶的确是汽车行业的大势所趋,但是特斯拉却在专属道路交通、特殊交通标志等相关配套没有配齐,且无法完全保证手工介入带来的安全保障情况下,不断加速自动驾驶的落实进程。这无疑让那些购买特斯拉的车主成为了“小白鼠”,时刻在危险边缘的疯狂试探,让人心惊不已。
现在的自动驾驶,真的100%安全了吗?
恐怕特斯拉自己也无法回答这个问题。
领取专属 10元无门槛券
私享最新 技术干货