特斯拉和苹果都不能解决的技术难题!自动驾驶车祸到底该如何避免

虽然各大车企、零部件巨头都在加码角逐自动驾驶这块儿大蛋糕,但由于接二连三发生的交通事故,使其安全性饱受公众质疑。

据外媒报道,近日苹果公司的一辆自动驾驶汽车在高速公路上进行测试时发生追尾事故,这是苹果公司自动驾驶汽车的首次事故,幸运的是此次事故并无人员伤亡。看到这里大家不禁要问,为什么今年自动驾驶事故这么多呢?自动驾驶到底靠不靠谱?

自动驾驶事故频发能否有效制止?

此前,加州机动车辆管理局曾发布了一项关于加州车辆事故的研究报告,绝大多数发生在道路上的车辆事故都是人类错误所导致的。截止到2018年8月31日,处于自动驾驶模式下并自动驾驶汽车在行驶过程中共发生了38起事故,其中除了一例以外,其余事故都是由人类造成的,报告表明人类仍然是交通安全的最大问题。

根据调查结果显示,此次苹果测试车的事故也并非是自动驾驶技术的错,而是因为人类犯错导致,也就是说后车司机失误,导致的追尾事故。

但值得注意的是,苹果的汽车在准备并入主路时选择停止等待,而不是立即并线,自动驾驶系统做出了异于人类驾驶员的决策,从而使得后车判断错误,进而追尾。不过很多时候,对于我们来说,转弯并线也不是一件容易的事。

难道都是人类惹的祸?

其实,自动驾驶技术离成熟还有很长的路要走,美国加州车辆管理局2018年发布的自动驾驶年度报告我们就可以从中找到答案。

数据结果显示,目前自动驾驶的领跑者Waymo,每行驶8950千公里需要进行一次人工干预,若不进行人工干预可能会发生事故。而据美国交通安全部门统计,人类平均驾驶25万公里才会出一次事故。由此可见,目前自动驾驶技术还有很长的一段路要走。自动驾驶的安全问题,尤其是高级别的自动驾驶安全问题,尤其需要重视,群众对无人驾驶安全性的质疑也不无道理。

尽管在绝大部分自动驾驶交通事故中,车企都指出己方并不需要负主要责任,被撞车辆的违规行驶、驾驶员的违规操作才是导致大部分自动驾驶事故的原因,但在部分自动驾驶事故中,车企方面也承认自动驾驶技术仍有不足。

Uber公司内部表示,今年3月Uber自动驾驶测试车撞死行人事件,可能与Uber自动驾驶系统中负责决定如何对传感器检测到的物体做出反应的软件有关。此前Uber一直试图让自动驾驶车性能与体验更加完善,减少对路况中如飘动的塑料袋等物体反应,造成系统对汽车周围物体不够敏感。

除此之外,Waymo和特斯拉也承认自动驾驶系统不够完善,对路况分析的错误是导致部分安全事故发生的主要原因。

目前苹果测试车已达66辆:

2017年,苹果公司获得加州自动驾驶测试的资格,随后开始进行路测。根据之前的消息,苹果公司已经向加州机动车管理局注册了66辆自动驾驶测试车辆,并拥有111名测试司机。截止目前注册的路试自动驾驶汽车数量已经排行第三位,前两位分别为通用Cruise与Waymo。

虽然苹果高管对于公司的自动驾驶工作透露甚少,但是上个月的一起调查案却显示,共有5000名员工在为苹果的自动驾驶汽车项目工作。此外,苹果公司还与大众合作,为苹果库比蒂诺园区创建自动驾驶接驳车。在此次合作中,大众集团将提供车辆,苹果将提供软件。

总结:自动驾驶是未来交通的大趋势,这一点毋容置疑。虽然发生的几起事故引发公众普遍质疑,但是从总体来说,自动驾驶是可以减少交通事故的。自动驾驶是一个不断学习的过程,发生一次交通事故,经过机器学习,所有的同类型车辆可能再也不会发生类似的事故,而人类却做不到这一点。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180905A0DT1Q00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券