Uber致命事故新进展:“看见”却分不清,无人驾驶还缺啥?

两个月前的Uber自动驾驶致死案有了最新的调查结果。据美国国家运输安全委员会(NSTB)发布的最新报告显示,Uber的自动驾驶系统其实已经“察觉到前方有物体”,但却没有辨认出是一个人!

让我们来梳理NSTB报告里,关于自动驾驶系统傻傻分不清“人、车、自行车“的几个关键点:

1.撞击前6秒,系统通过雷达和激光雷达已经发现前方存在影子;

2. 系统并没有认出这是一个人:判断成未知物体→车辆→自行车;

3.报告显示事故发生在路灯照不到的地方;

4. 被撞女子彼时身着黑衣;

5. 种种原因,从车辆驶来的角度看不到女子所推自行车的反光。

所以,现在看来Uber自动驾驶致命案所带来的问题并非系统能否提前识别前方有障碍物,而是系统如何精准识别前方障碍物为人或车?尤其是在无光、眩光或起雾等条件下,能“看到“就不错了,要“看清”谈何容易?更不要说像这个案例中,无路灯照明情况下,女子身着黑衣,推着一辆车辆看不到反光的自行车,“看清”简直难上加难!

或许从NSTB这份最新报告中,从事无人驾驶的专业人士需要更好的考虑,什么样的传感器对夜间行驶能起到举足轻重的作用,哪怕这类传感器发挥作用的时刻只有那么少数时间。

目前自动驾驶主流的前向路况检测主要依靠以下三种传感器:毫米波雷达、激光雷达以及可见光摄像头。一张表格分析它们的优劣势:

可以看出,目前主流针对前向传感器融合方案都有一个显著缺点:在恶劣天气情况下,只有毫米波雷达一个单传感器可以起作用,而毫米波雷达自身又难以识别行人。故现有的技术方案只能在正常天气下工作,在恶劣天气环境下(特别是光线不好的情况)会对路上行人的生命会造成极大的威胁。

一切看似无解?其实不然,夜视传感器中的远红外传感器或许是极佳的解决方案。因为远红外技术只考虑观测主体与环境之间温度差,而不受光线情况影响。在绝大多数视线受限的情况下,如无路灯照明路段、会车时炫光状态、雨雾天视线模糊等,远红外技术依然能“看到”也能“看清”前方的物体,是人或车,还是一辆不会反光的自行车!

无人驾驶的前提,不仅是能“看到”,还得是“看清”先!

部分图片来源网络

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180526G01W5T00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券