首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

自动驾驶VS人类驾驶,出现事故是谁的错?

(根据我们的承诺,与读者分享令人深思的资料,我们有时会运行由TTAC的姊妹网站发表的文章。这次看到由GM Inside News负责人Michael Accardi主持的自驾雪佛兰螺栓最近的碰撞我们已经在这些页面中探讨了很多主题,对于所有涉及“完全安全”的自主车辆的事故,究竟是人类真正的责任,还是真实的画面不是很清楚?

自动驾驶的雪佛兰螺栓在旧金山的自驾车启动已经在2017年参与了22起事故 - 没有一起是软件的错(从法律上来说)。

自从2016年通用汽车公司购买了超过10亿美元的汽车以来,克鲁斯自动化公司一直在使用自行驾驶的雪佛兰螺栓在城市环境中记录自动里程。当您试图破坏我们所知道的私人交通时,新的技术标准,肯定会出现一些事件。

但是,这种 混合模式的人类和算法共享的道路 比简单地分配责任的法律更复杂,不是吗?通用汽车公司巡航舰队的22起事件都不是严重的,但其中大部分是由于自主驾驶和人为驾驶方式的根本差异造成的。

6月份,在范尼斯大道上以7英里/小时的速度行驶的一辆自动驾驶的螺栓“减速”,以响应一辆巴士驶离前方的路边, 导致一辆白色的小型货车驶入后面。

在9月18日远离灯光的情况下, 右车道上的车辆在自己的车道上编织,而不会穿过AV车道。软件急转直下,一辆1984年的BMW 633 CSi也加速驶向十字路口。

10月12日, Bolt AV在人行道上的一名行人在 浏览智能手机的同时接近人行横道时被一惊。当汽车驶入十字路口时,该算法决定立即减速,以防万一遇上交通车辆。结果,丰田卡罗拉从后面撞中了它。

六天后,从自动螺栓前方的右转车道合并的踏板车导致汽车停在十字路口的中间,导致与即将到来的斯巴鲁翼豹相撞,因为预期AV清理路口。

然后, 在12月7日,一路上在交通繁忙的时候,Bolt AV决定在一辆小型货车和一辆轿车之间的交通差距后合并。然而,在中途停下的时候,小面包车稍微放慢了一点,导致AV中止变道并返回到中央车道,导致与左侧车道和中间车道之间的车道分离的摩托车相撞。试图通过不安全的情况下,摩托车手被认为是过错。

根据 自主车辆事故报告分析, 由一组来自圣何塞大学的研究人员公布,自主汽车的两倍更有可能获得追尾不是由一个人操作的汽车。这是自动驾驶模式的一个副作用,那就是:除非它是安全的,否则不要移动,如果你担心,立即停下来,绝对不要伤害任何人。

该研究分析了2014年9月至2017年3月期间报告的自主事故数据; 结果将加强你的信念,认为自动驾驶汽车是愚蠢的。

人们发现,人类和算法同样不好,即使如此,62%的自主车辆事故是后轮挡泥板,这是人类驾驶员追尾的两倍。表面上看,这是自主行为的副作用,面对看似不可预测的行为的突然减速是常态。

26起事故中有22起发现该软件没有故障,但在所有事故中,AV只能检测和避免即将发生的事故三次。要避免自己突然减速导致的崩溃是相当困难的,但这不是头条所说的; 他们说,如果我们不把人从车轮后面拿出来,即将到来的厄运将会降临到我们身上。

所有汽车事故中的94%是由人为驾驶员造成的。这不是一个统计数字,应该让你感到震惊,因为人类是目前唯一能够驾驶机动车辆的实体 - 还有谁会犯错 ?

但是,研究结果变得更加有趣,每英里驾驶的事故频率。遇到事故前人类驾驶汽车的平均里程为50万英里,而自行驾驶汽车的平均里程为42,017英里。显然, 并不是所有的人都像这样的事情那样糟糕,有些人会让你相信。

自动驾驶汽车将拯救生命已经是绝对的事实,但事实是,我们根本没有数据。该研究声称,为了准确估计可接受的死亡率,一个由100辆车组成的车队将需要24/7全天候无故障驾驶,时间为12.5年。

问题是,他们驾驶的里程越多,算法也不会越来越好。研究人员还得出结论说,观察到的事故数与自行行驶的英里数有很高的相关性,而且看不到高原。通用汽车计划在2019年之前在密集的城市环境中推出完全自主化的机动出租车队,这种计划看起来不太合理,而 玛丽·巴拉(Mary Barra)的愿景就是 像一个现金抢劫似的。

但是这不是为了挽救生命,而是为了方便的幌子增加消费。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171224A0LNV100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券