首页
学习
活动
专区
工具
TVP
发布

原来,在特斯拉眼中,我们的世界是这样的!

作为自动驾驶车辆的“眼睛”,Tesla 的摄像头和传感器承担了“感知周边环境”以及“收集数据”的功能,很多高清地图的数据采集都要依靠它们来进行。

这个过程必须依赖一些雷达和超声波传感器技术,同时基于计算机视觉原理驱动,摄像头与神经网络系统进行协同,在“看到”的同时能进行“识别”,就像人类驾驶者一样。

不久前,为了能更好地了解特斯拉的自动驾驶系统是如何工作的,国外的特斯拉黑客 Verygreen 和 TMC 用户 DamianXVI在 Ebay 上购买了一套2.5版本的 Autopilot 硬件(是一个完全解锁的开发人员版本),并对这套系统进行了研究实验和解读。

下面这段视频是基于 Green 和 Damian 的这次研究(车辆所使用的固件版本为18.34),一辆由人类驾驶的特斯拉的Autopilot系统在穿过巴黎的过程中所看到的景象:

Green对视频中可能出现的一些数据规范以及显示体例进行了说明:

“底部的绿色填充代表‘可能的驾驶空间’,也就是可供行驶的道路;线条用以标识各种检测到的车道和道路边界(颜色代表不同的类型,但是实际意义并未直接在视频中给出答案)。检测到的各种物体会按类型进行列举,并且在3D空间和深度信息中都有自己相应的坐标,相关雷达数据(如果存在)和各种其他属性也会得到呈现。”

另外这段视频中还有一些有趣的信息:

01:17

交通锥可以定义可驾驶空间的边界

01:31

被认为是卡车的建筑施工设备

02:23

误报,一个大尺寸的装载容器被误认为车辆

03:31

根本没有检测到身穿红色夹克的行人。

04:12

一个显示右转的线条示例,但是道路本身并没有类似的标记

06:52

另一个误报——海报被错误识别为行人

08:10

另一个更突出的示例,系统显示左转车道但实际上并没有道路标记

09:25

靠拢一名骑自行车的人

11:44

轮滑选手

14:00

本车差点和左边那辆车发生碰撞意外,但Autopilot并没有发出警告

19:48

同时识别出20名行人

这个视频展示出了 Autopilot 看到的和人类看到的内容之间的区别,但实际上,这未必是评价 Autopilot 的识别能力和决策能力的正确方法,因为其实系统即使“看到”了,它也无法真正地解析出背景图像的实际含义。

但无论如何,这可能是对自动驾驶/驾驶辅助系统的第一次真正的第三方测试。这样的测试能促使特斯拉等公司对自动驾驶系统的开发更加开放,也能帮助人们更好地理解这些系统的工作原理及其局限性。

毫无疑问,自动驾驶涵盖了人类过去一百年几乎所有最重要的技术,而自动驾驶遇到的问题,反映了文化、习惯、社交等不同层次的问题。

相信随着人类的努力和驾驶系统自身的进化,人与系统之间的互信将得到进一步的强化。

再过10年这套系统会超过人类!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200214A08DK200?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券