前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >遵守交规,就能让自动驾驶避免车祸吗?丨科技云·视角

遵守交规,就能让自动驾驶避免车祸吗?丨科技云·视角

作者头像
科技云报道
发布2022-04-14 20:21:26
2030
发布2022-04-14 20:21:26
举报
文章被收录于专栏:科技云报道科技云报道

连续发生多起车祸的特斯拉早已陷入多事之秋,其背后折射的,是并不能实现完全“自动”的自动驾驶汽车。至今为止,对于如何保证自动驾驶的安全,业界似乎没有完善的解决方案。


上周,特斯拉又撞车了。一辆特斯拉Model S电动汽车在布鲁塞尔Saint Gilles市发生车祸,连撞五辆车。据这辆Model S的车主称,当时汽车是自主发动的,车内并无驾驶员,然后就撞上了附近的五辆车。

就在布鲁塞尔车祸发生的当日,一辆Model S在加州的拉古纳海滩(Laguna Beach)撞上了路边停泊的一辆警车。据肇事司机称,汽车当时正处于“自动驾驶”状态。

不到一个月前,一辆Model S在佛罗里达州劳德代尔堡(Fort Lauderdale)市区撞墙起火,导致车内的3名青少年2死1伤。

对此,特斯拉全部回应称,车祸与Model S的辅助驾驶系统Autopilot无关。

事实上,这并非是自动驾驶汽车发生的第一次车祸。其它的比如,优步在亚利桑那州的车祸,Waymo无人驾驶汽车在路测行驶过程中被一辆本田轿车无辜碰撞等。

回顾最近的每一次车祸,其实大多数是因为人类的错误而引发的,并不完全是自动驾驶汽车的责任。

所以,这也给自动驾驶汽车的开发者们带来了一个巨大的难题:遵守交通规则,就可以保证不发生车祸吗?或者说,当发生车祸时,能够清晰判断到底谁对谁错吗?

极端情况下

自动驾驶汽车该怎么办?

我们可以试想一下道路上的“极端情况”,比如:行人违规横穿马路,其他司机意想不到的操作,道路上的瓦砾和车前飞舞的塑料袋,暴雨和浓雾天气等。不论对于人类司机还是自动驾驶系统来说,这些情况都相当惊险。

虽然我们有通用的“道路规则”,但事实上它们与规则的定义稍有差距。因为这些“规则”的条款都太模棱两可了,我们可以从多个方向解读。

所以,驾校教练会告诉我们,什么时候超车最合适,什么情况下其他车辆会适时刹车让路,能汇入主路的最小空挡有多大,而最终判断的依据大多是常识。

这对于在日常道路上缺乏常识的自动驾驶系统来说,无疑非常困难。在紧急情况下或车辆避险时,“规则”可能就会被打破。因此,事故发生后,判断谁对谁错有时会出现一笔糊涂账。

针对自动驾驶时代的交通事故,以色列自动驾驶技术公司Mobileye CEO Amnon Shashua 就设想了一套责任划分原则。在他看来,如果自动驾驶汽车遵规行驶,出了事故公司就无需负责,但如果是传感器出了故障或软件故障(违反了规则),那么公司就得承担责任。

Shashua和他的同事们去年年底就通过一篇论文尝试为自动驾驶汽车设计道路规则,他们将这一模型称为“责任敏感安全”(Responsibility-Sensitive Safety),并为许多场景(如变线、汇入车流和行人或车辆占据道路时的安全行驶)设定了数学规则。

这个模型覆盖了美国国家公路交通安全管理局(NHTSA)事故数据库中列出的37种预碰撞场景。据悉,Mobileye已经将这一模型用在了自家的自动驾驶平台中,Shashua也希望该模型能成为行业开放标准的基石。

好了,问题来了,安全驾驶规则真的能用数字来定义吗?给自动驾驶汽车灌输一个它们能理解的道路规则,则意味着规则要足够精确。

对比,自动驾驶新创公司 nuTonomy CEO Karl Iagnemma 就道出了“天机”,他认为每家公司在解决这个问题时都有不同的方法,因此业内期盼能有个标准化的规则,让自动驾驶汽车在面对不同情况时不会手忙脚乱。

自动驾驶的安全性如何被量化?

统计显示,人类司机基本上每20万英里就会发生一次事故。显然我们不能接受自动驾驶技术和人类驾驶同样安全。技术达到哪种水平,无人驾驶汽车才足够安全、可以上路?

很多人坚持认为,无人驾驶汽车只有达到100%完美的安全可靠性才能合法,那意味着没有任何碰撞、事故或失误。然而事实是,没有任何无人驾驶系统能够做到始终完美可靠。

哥伦比亚大学人工智能实验室主任胡迪·利普森(Hod Lipson)在其2017年出版的《无人驾驶》一书中提出,只要无人驾驶汽车的安全记录能够超过人类驾驶员的平均水平,那它就是足以“造福人类”的。

目前,业界对自动驾驶汽车的安全可靠性进行量化,其标准就是在无人工干预的情况下,可以单独运行的时间长度。由于自动驾驶汽车的安全性是通过安全里程来衡量的,所以我们可以设定一个基于安全里程的衡量标准:平均故障间隔距离(MDBF)。

因此,加州交通管理局(DMV)每年发布的自动驾驶“脱离报告”,对于整个自动驾驶行业安全性具有重要的参考意义。

加州交管局发布的《2017自动驾驶“脱离报告”(California Autonomous Vehicle "Disengagement Reports")》主要涉及以下两方面内容:

一是自动驾驶汽车路测里程;二是“脱离(Disengagement)”次数。从某种程度上来说,“脱离”次数越少,系统越稳定。

以百度为例,在2016年8月31日至2017年11月30日期间,其总测试里程数为1,971.74英里(约合3,173公里),“脱离”48次,这意味着每隔41英里(66公里)发生一次“脱离”。

Waymo在加州的自动驾驶测试里程数为635,868英里,“脱离”124次,即:每隔5,127英里需人工介入操作一次。

通用Cruise自动驾驶测试里程数为131,675英里,“脱离”105次,即:每隔1,254英里需人工介入操作一次。

从报告数据显示,Waymo与通用Cruise双雄争霸模式还将继续,多家知名车企尚未开始路测,尚无法论断其表现。而特斯拉未在加州路测,暂无法纳入对比范畴。

《2017自动驾驶“脱离报告”》中并未提及具体的天气、温度、湿度、路面状况等具体的测试情境,但各公司在自动驾驶技术方面存在一些通病:部分问题可归咎于与车辆对环境的感知能力,部分问题则与道路行驶方式有关,测试车辆的车载软硬件也是造成“脱离”的重要原因。

外部环境因素也会对“脱离”造成影响,如:行人过多、交通标识不清晰等。此外,数据传输的及时性(存在迟滞)、GPS定位、变道、上坡、各类传感器的感知及配合情况也是重要的影响因素。

此外,有网友调侃,中国的无人驾驶汽车需要研发防撞,防碰瓷,防加塞功能,同时还要能够预先判断红绿灯故障,井盖被偷等情况。虽然是玩笑话,但也很好地反映了无人驾驶汽车在我国所要面对的困难。

的确,无人驾驶的未来虽然在业界看来光明无限,但因此带来的法律、规则等方方面面的颠覆也绝不是“车在路上跑,交规改一改”那么简单。

目前自动驾驶系统仍难以做到完全的安全可靠性,关于安全性的法律标准也需要进一步定义并量化。自动驾驶能不能如愿实现科技巨头们的美好愿景,恐怕还需要时间来检验。


【科技云报道原创】

转载请注明“科技云报道”并附本文链接

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-06-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 科技云报到 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档