首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

自动驾驶还是自动避责?特斯拉再陷争议,车祸前1秒Autopilot自动退出

日前,美国高速公路管理局(NHTSA)发布了一项关于特斯拉自动驾驶的调查,文件中有一句话引起了网友们的热议——特斯拉部分车辆在撞击前不到一秒钟,特斯拉自动驾驶系统Autopilot中止了对车辆的控制。

而且,这份文件还提醒用户们,目前并没有完全自动驾驶的汽车,每辆车的要求驾驶员在任何时间都要处于控制车辆的状态,并且要求驾驶员对车辆的操作负责。

针对Autopilot的自动退出,有网友提出疑问,Autopilot退出了,特斯拉就可以否定事故的责任,并将责任归结为驾驶员的操作,可不到一秒钟的时间,驾驶员根本就来不及做出反应。

据了解,2021年就有不少车主投诉特斯拉因Autopilot引起的事故。而在去年8月,NHTSA已经对此展开了调查,并发现在16起类似的事故中,在碰撞发生前,大多数车辆前向碰撞警告已经被激活了,而有半数车辆的自动紧急制动系统也积极主动进行干预,不过最终都失败了,甚至造成了1人死亡的严重后果。

而且,在这些事故中,Autopilot在实际碰撞发生前不到一秒钟才退出,停止对车辆的控制,当驾驶员接手车辆驾驶时,完全没有操作时间来控制车辆。

现在,NHTSA的调查还在进行中,特斯拉官方也没有进一步的解释。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20220620A04U7300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券