前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >无人驾驶-一些有趣的项目(2)

无人驾驶-一些有趣的项目(2)

作者头像
企鹅号小编
发布2018-01-04 16:10:22
7400
发布2018-01-04 16:10:22
举报
文章被收录于专栏:企鹅号快讯

今天我们简要介绍无人驾驶中广泛使用的摄像头,激光雷达等传感器。

摄像头:

摄像头对大家来说并不陌生,基本就是获取视频或者图像的设备。不同的设备价格不一样,你觉得你的苹果手机很贵,但无人驾驶车上的一个摄像头可能比你手机还贵。价格贵是因为像素高吗?我觉得不是。实际使用其实要考虑到很多问题,比如说摄像头数据传输的速度,摄像头降噪的能力,摄像头对光线的敏感程度等等。实际中有专门的领域设计无人驾驶车的摄像头硬件,我觉的这大抵是机器人领域的视觉和计算机科学领域视觉的差别吧:机器人视觉更强调实际应用,计算机科学视觉更注重算法的研发。

虽然软件部分会讲到部分的算法,但我还是在这简要提一下深度学习在无人驾驶中的应用。讲个有意思的故事,普林斯顿的教授肖建雄(Prof. X)前段时间成立无人驾驶的创业公司AutoX,公司宣传的重点是,他们使用50美金左右级别的摄像头可以实现“可靠”的无人驾驶,并不需要其它激光雷达等价格昂贵的传感器。当我看到这个消息后,我第一反应就是,他们汽车后备箱里的GPU价值多少?

其实深度学习在计算机视觉领域的表现真是让人惊叹。但惊叹之余,我们也应看清很多算法因为处理速度和准确度的限制而无法得到实际应用。比如今年ICCV的最佳论文Mask-RCNN,在GPU上可以达到每秒无帧的速度,但这segmentation和detection的速度以及准确程度还是不能作为主要依赖的传感器的。你可能会质疑,特斯拉怎么就做到了呢?我只能说,是的,它做到了几起严重的车祸。当然,视觉领域也不只有深度学习的方法,还有很多较可靠,还实时的算法(即使深度学习,yolo在GPU上也可以做到实时)。所以,摄像头还是无人驾驶中不可或缺的。

激光雷达:

激光雷达的基本原理就是,射出一束光,遇到物体反射回来,根据传输的时间就可以知道物体距离。一束光线,其实就只能的到一个点;所以,要想的到更大的覆盖范围,就要发射更多的光束,但随之而来的问题就是成本的增加。在Velodyne广泛使用之前,大多是使用SICK和Hokuyo这样的平面雷达。所谓平面雷达,就是光束只在一个平面上,如果你想得到三维的数据,就要移动平面雷达。基于这个想法,Velodyne设计了三维雷达,这个雷达每个垂直平面发射出16,32,64或者128条光束,然后旋转一周,这样就覆盖了整个立体空间。但你可以想象到随着物体距离的增加,点会变得越来越稀疏。下面图片中是实际中平面雷达和三维雷达的数据,其实就是一些不同距离的数据点。

平面雷达数据

旋转一周形成的三维雷达数据

基于SLAM的构建的三维雷达数据

Radar:

原理和激光雷达想法差不多,它发射出去的是不是光束,还是波。这样优点是覆盖的范围广,缺点就是精度没有激光雷达高。所以不同测距的Radar,主要是用来做物体检测和追踪以防止碰撞到障碍物的事件发生。我以前从未实际使用过这个传感器,但最近的项目可能会用到,后面我会分享给大家具体的使用心得。

Leddar:

其实这也是一款激光雷达,但它是固态激光雷达,换句话说就是没有旋转,所以射出去的光束有一定的视角范围,而不是360度。最近尝试使用了一下,感觉非常酷。主要用于检测距离很近的物体,而引发汽车的紧急制动。下图是是leddar的实际数据,绿色舍车的位置,其它颜色的长方形代表不同位置存在障碍物。

过去几篇基本介绍完了无人驾驶中标配的各种硬件设备。未来几周我们将介绍如何获取这些硬件设备的数据。

非常excited的一件事是,我们周一拿到了车,经过一周的努力,我们现在可以获得这个系列中讲到的所有传感器的数据,下一步就是使用这些数据实现无人驾驶啦!!!最有意思的经历就是,因为这个车是可以上路行驶的,所以我们必须对转向灯,刹车灯之类的的做到软件控制,所以完成了人生第一次用手机控制车上的转向灯,哈哈

本文来自企鹅号 - 全球大搜罗媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文来自企鹅号 - 全球大搜罗媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档