首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

V2X与智能位置感知

焉知焉知·焉能不知

作者:胡钊政,武汉理工大学教授/智能交通系统研究中心交通信息与安全研究所所长;

来源:焉知自动驾驶。

由焉知汽车科技新媒体、汽车财经主办,中国汽车工程学会汽车智能交通分会指导,安亭环同济创智城建设管理委员会、智能型新能源汽车协同创新中心鼎力支持的2019自动驾驶关键技术发展峰会于1月17-18日在上海安亭举办,本届会议是焉知汽车科技新媒体成立以来组织的首次会议,有来自主机厂、零部件企业、自动驾驶技术方案提供方、知名网络公司等200多位行业人士,一起共同探讨了自动驾驶相关的技术、市场、挑战及对策等,同时会议也得到了中电昆辰、苏州毫米波雷达、上海熠速的大力支持!

武汉理工大学智能交通系统研究中心胡钊政教授,应邀参加了本次峰会,并发表“V2X与智能位置感知”演讲,以下为演讲实录,与您一起探讨学习。

演讲实录:

各位嘉宾大家好,感谢组委会的邀请来参加2019自动驾驶关键技术发展峰会,我今天演讲的题目是“V2X与智能位置感知”。

我将从三个方面进行分享介绍:第一、V2X的典型应用,包括武汉理工大学的在车路协同方面的工作;第二个、介绍一下V2X与LBS的一些关系第三、基于场景的智能位置感知。

一、基于V2X的典型应用

V2X(Vehicle to X),是未来智能交通运输系统的关键技术。X一般指四个方面:人、车、路、云端,由此产生了V2V、V2I,V2P,V2云端这些应用,图一介绍信息流怎么进行交互,网络之间怎么进行搭建。

1、车路协同实验平台(V2V,V2I)

武汉理工大学余家头校区车路协同实验平台建立于建于2012年,应该说作为国内高校比较早的参与车路协同项目。当时我们做车路协同,主要是V2I这块,所以我们做了一些智能车方面的工作。

近几年我们的车路协同项目也在跟武汉市的一些交管系统进行结合,比如我们在武汉东湖高新车联网示范项目:9个十字路口布设RSU;两台支持V2X智能网联汽车(东风AX7, BYD e5);实现车辆引导、预警、交通流控制等功能。

2、智能车平台(自动驾驶、ADAS)@ WHUT

我们跟武汉当地的车企进行合作搭建了一些典型的智能车平台。

2012年:长安悦翔智能驾驶的样车,采用横纵向控制器,支持支持V2X、无人驾驶。

2014年:广汽传祺样车,支持ADAS和鹰眼仿真且能够和我们的模拟器结在一起。

2016年:BYD e5 纯电动样车,该车型是我们和武汉光庭共同合作,采用横纵向控制器支持自动驾驶二、三级。

2018年:低速电动车,应用激光雷达、摄像头(单/双目)、高精度定位惯导、毫米波雷达等传感器,采用横纵向控制器,支持无人驾驶、V2X。另外,我们把它的底盘和线控改造,做了一个在校园里面自动驾驶的样车。V2X目前应用最多的是V2I和V2V这两块,图2是基于V2I的应用,我们这一套控制系统用V2I进行改造,可以通过V2I的ISU系统可以把它发送出来。然后在OBU可以接收到车辆红绿灯一个相位信息。

3、V2I典型应用案例

传统的模式是基于计算机视觉来实现的。在Google Scholar看到的traffic light detectioncamera他们近四年还有非常非常多的人做项工作,应该说这项工作用我们的视觉角度解决的话是非常困难的,特别是室外环境,受光照受各种各样的影响比较大。

V2X跟传统的模式相比优势非常的明显,V2X感知更稳定,受环境影响更小。V2X检测的能力更强,甚至我们可以把未来的相位信息都可以上传,发送给车辆,一些超时距离的感知,在很远的地方就可以被检测到。另外还可以解决遮挡视角这些问题,很多人可能有这样的经历,我们在等红绿灯的时候,前面有一台大车,我们也看不见红绿灯,这个时候的计算机视觉不能去实现。V2I解决红绿灯遮挡视角问题是非常好的一个案例。

二、V2X与基于位置服务(LBS)

基于位置服务(LBS)英文全称为LocationBased Services,它包括两层含义:1)首先是确定移动设备或用户所在的地理位置;2)其次是提供与位置相关的各类信息服务。

V2I我们可以把车跟基础设施进行改造,进行通信。如果这个车子时间我们同样也可以进行通信,这个通信的话,他可以把车辆的位置、车型速度甚至里面的一些信息,包括转向角这些信息,可以相互共享,这样的话我们在做自动驾驶的时候会得到一个非常稳定的感知结果,较传统算法有很强的优势。摩拜,深度学习做车辆识别,现在做得也不错。我认为跟通信这里面的稳定性还是差得比较大,做计算机视觉,做深度学习,如果做到99%,这个难度就非常大。

用V2I这套系统跟传统的算法比较起来,同样会得到一个更加稳定,更加可靠,而且感知能力更强,范围更广,同样能够解决遮挡、视角,这些在原来无法解决的问题。车辆位置感知是实现V2X实际应用的关键,特别是V2X应用于自动驾驶领域,高精度定位是V2X实用化的基础。

V2X本质上是一种位置服务,位置服务它英文名字叫Location Based Service(LBS),它在移动互联网中有着非常重要的特色,95%的ABP都需要位置信息,因为需要位置信息推送服务。

同样我们跟刚才那个图,放在这里面再详细讲解一下,比如说我现在有四车道,每个车道里面对应有红绿灯的控制,我们看到这四个车道有三个方向,一个左拐,一个执行,一个右拐,每个车道就是不一样的相位。我的车子在第二个车道,如果我知道我车子在第二个车道,位置很精确,能够感知到位置,知道第二个车道,我很容易就把我的相位信息用上来,V2I的信息我可以利用,我车子可以在这个地方,不需要用摄像机识别红绿灯的信息,通过V2I我们可以知道这个地方不能走,停下来。

但是如果我们的位置信息不精确,我们GPS能达到10米左右,我们一个车道的宽度大概在3.5米。所以很可能我们车子跑到感知以后,可能觉得我站在第一个车道,或者感觉我站在第二个车道。如果把我车子的位置感知错了,然后V2I发过来相位信息其实给我是一个什么作用,是一个负面作用。本来可以走,现在不能走或者不能走的时候现在可以走。如果我们的位置信息,算的不精确,我的V2X信息其实无法加以利用,后来越做越发现这个位置信息特别重要,位置信息没有的话,我们讲V2I还有后面讲的V2V,都是一样的问题。

中间这辆车,真实位置在右边车道,我前后都有车,我可能把前面那台跑车位置算错,把我一个错误的信息给我,本来在左边车道,它算错以后,告诉我它在右边车道,这样会产生一个虚警。还有一种情况我真实的位置,我自己的位置在右边车道,但是我算在左边车道,这样我们也会产生一些误判,所以位置信息非常重要,如果车辆的位置信息判断有误,我们的V2V系统造成误判或者漏判这都是很可怕的事情。

你可以现象一下,未来汽车要联网,如果位置信息不精确,可能不知道你联网,你的位置信息都产几十米,你把信息丢到这个网络里面会产生什么形成?相当于一个黑客的效果,整个网络会出问题,位置信息非常重要。所以我提出来就是说话,V2X本质上是一种LBS,因为在V2X系统里面首先要确定终端的一个坐标信息、位置信息。我们是通过位置信息来选择V2X给我们提供的服务,不管是基础设施的状态,我们通过位置来进行一个选择,没有位置的话,这个信息对我来说是没有用的,甚至是一个负面的信息。

移动互联网跟LBS相比,比如手机ABP也需要位置信息,位置信息可能不是非常精确,提供信息我们还是比较满意。但是V2X是跟自动驾驶相连,位置精度要求非常高,只有通过精确的定位信息我们才能获得比较精准的V2X服务。

V2X本质是位置服务,位置信息在整个V2X是应用的基础。V2X(V2V,V2I)系统中,首先需要确定终端的位置信息,通过位置信息,获得与位置信息相关的服务(如基础设施状态、临车状态等)。与移动互联网LBS相比,V2X对位置的精度要求更高,也只有通过精确的定位信息才能获得对应的服务。

三、基于场景的智能位置感知

智能车定位目前主流的方法GPS+MU+RTK,90%以上的智能车就是这个方案。

GPS+MU+RTK做Demo是没有问题,百分之八九十的Demo都是在比较开阔的地方做,信号比较好,但是我们很少看到智能车在地下停车场做Demo,因为地下停车场没有GPS,没有GPS意味着我们这套系统会失效。实际上在很多环境下,如高楼树木很密集的地方或者高架桥下面我们都是没有GPS信号,这种情况下我们定位信息会受到很大的影响。

近两年对激光和视觉的研究非常多,二者各有优劣。目前激光技术精度非常高,但是它有一个很大的问题,激光成本比较高。另外,很多车厂不接受激光技术的方案,原因有两点首先激光技术还不成熟尚非车规级,其次成本太高。

视觉的方案有其独特的优势,因为很多汽车本身也带有摄像头,包括前置摄像头跟后置摄像头以及环视。从传感器角度来讲没有新的成本,但是视觉做定位的话可能还是比较大的,增加了一种方案。

GPS+MU+RTK本质上是三点定位,三点定位的方法跟人类感知是不一样的,人类定位的话不需要这个三点定位,人类定位是看一个场景,觉得比较熟悉,下一次再到这个场景,进行信息匹配,大概知道这个场景是什么地方,是一个认知范围。

场景的实际上是定位非常核心的一个范围。早期的导航和地图比较简单,近几年出现了高精度地图,它的信息量非常大,它会用左拐箭头,右拐箭头,车道线,交通标志,将坐标全部测出来,信息得以表现出来。这本身就是一种场景的表现方式,还有一种是基于道路场景特征的。摄像机场景,可以看到两个地方场景完全不一样,通过不一样的地方可以提取这个场景的特征,再把这个特征存储起来,再实时定位的时候,可以进行匹配,这样我们可以得到一个定位效果。

如何表征场景:1)基于HD Map语义(如点、线、形状等)的表征;2)车道线编码(Lane Coding)表征;3)基于道路指纹(Road Signature)的表征。

我们实验室提出一个指纹的概念,指纹的意思就是说每个地方都不一样。还有我们做了一些车道线编码的工作,其实我们现在的场景都是固定的,都是当时已经设计好线路,当时设计的时候并不是为自动驾驶来设计的,是给人用的,但是我们现在车子来用这些基础设施,其实在一开始设计的时候我们就应该有一些基本的意识,有些地方是不是要对它进行重新的设计?这个东西不光是给人用,还要给车子用,其实我们这个移动互联网时代,二维码就是干这个事,二维码本身没有这个东西,是人发明的,这个东西专门给机器来用,人看着没什么用,所以我们当时实验室提出来车道线编码的概念,下面我们也从三个方面介绍一下我们的工作。

1、基于HD Map的融合定位

在HD Map里面有各种各样路标的信息,比如车道线,左拐箭头,交通标志,而且HD Map有很高精度的定位,这个定位精度现在号称是达到十厘米左右。

HD Map的融合定位从视觉里面可以检测出目标,目标再跟地图里面基于目标进行匹配,比如说在某个地方看到一个左拐箭头,在地图这个范围之内发现刚好有一个左拐箭头,那这个地方就匹配了。然后在地图里面左拐箭头里面所有的点,都携带坐标信息,这样通过视觉计算以后,就可以确定车辆的位置,这是HD Map的融合定位的基本原理。但是HD Map的融合定位有一个非常重要的条件是什么?路标要有唯一性,什么叫唯一性?如果在感知范围内,发现两个一模一样的左拐箭头,那就不知道到底哪个箭头对应哪个箭头?这个是非常重要的。

HD Map的融合定位路标的唯一性:通过匹配视觉(或激光点云)中的目标与地图中语义目标(如路面标志)实现车辆定位。需要路标具有唯一性(UniqueLandmark)。主要利用点与点距离约束位置,是非线性约束。

做高精度地图定位的时候,一般是用分析性滤波器,因为它主要用了点于点之间的约束,在视觉里面可以算出跟目标的距离,这个距离变成隐约式条件,这是我们做高精度地图现状里面出现的一些问题。

那么如何解决隐约式条件产生的问题?我们提出来用单目视觉,加上高精度地图,加上普通GPS我们做一个融合的定位。

GPS精度基本上是1-10米左右,HD Map精度到厘米级,现在可以做到非常精确。单目视觉的误差一般10厘米左右,单目视觉的误差是什么意思?用HD Map可以看到车子里左右车道线的距离,距离现在误差应该在10厘米左右的。单目视觉相对定位精度高,高精度地图能提供精准的参考位置信息,GPS可以提供绝对位置坐标,如何充分发挥三种传感器的优势,通过信息融合提高定位精度?相对定位与绝对定位如何实现有效关联?不同传感器数据如何融合?

2、卡尔曼滤波器观察值(绝对坐标+横向偏移)

我们设计了一个滤波器,它两个关键值,一是GPS本身,可以直接把位置放出来,只不过误差比较大。另外一个关键值我们是通过高精度地图加上GPS,加上横向偏移来计算的。

在高精度地图里所有的线是由起点和终点来表示的,它是用高精度GPS坐标来表示。意味着这个线的方程我们可以知道,然后我们也知道我们的GPS坐标,因为很粗,所以这两个作为点击以后,我们知道点到线的具体,这就是我车子离车道线的偏离。同样视觉里我们也可以算出车道线的偏离,这两个偏离本质上是一样的东西,所以通过这个约束,我们可以建立一个方程来做滤波器。

上图用的是线之间的约束,HD Map大部分是用点与点之间的约束,线之间的约束一个好处就是它是一个线性的。这样可以把滤波器整个关键指标设计出来,还有一个很重要的现象。车辆在行驶的过程当中,一般可以看到左边车道线可以看到右边车道线,摄像机比较开阔的话,可以看到更多车道线。每一条车道线我们可以建立这样一种线性方程。我们看到比如说N条车道线,我们做N个方程,最后把整个举证放进来,滤波器这里面所有的观测全部是一个线性的,里面的状态转移,让我们很容易做到一个线性的。把单目视觉,GPS和高精度地图把它信息结合在一起。

这是我们做的一些实验结果,我们基本上误差1-10米左右,我们用的是车道级别的地图,什么叫车道级的地图?就是我们地图里面把车道的坐标信息保存下来。相机是一个普通的车载相机,我们有RTK做一些光的促使,看一下结果。

我们在武汉理工大学周围的路包括学校内部的路做一些实验,所有做实验的地方,我们路段做进行高精度地图的车位,车道线的坐标全部测出来,这是我们实验的一些初步结果。

通过融合GPS、单目视觉与HD Map三种数据源,可将车辆定位误差降低50%-70%(相对于原始GPS误差);与一条车道线相比,利用两条车道线可以降低约10%-20%的定位误差。

这个是我们基于HD Map做的一些工作,跟别人不一样的地方就是我们是把车道线作为重要的参考来提高定位精度,传统的算法可能在做HD Map的时候,需要唯一的标志,车辆在路上行驶的时候,绝大部分地方是没有标志的。在高速上,可能做很远都没有一个唯一的标,前面都是线,我们这个算法可以把线的信息完全融入在定位。

2、车道线编码 (Lane Coding)

为什么说线的信息融不进去?因为现在看见都是一个样,左边是我们很典型的一个虚线,长得一个样。就意味着我不知道到底哪一块在哪一块,所以我们车道线编码的意义非常简单,比如说我们不可以把每隔几个快的我们可以进行一些不同的表示,这个表示可以有很多方式。比如说我们可以提出来颜色编码,不同的颜色,每隔三个,每隔四个,我们用不同的颜色进行编码,我们可以做纹理编码,相对不同的纹理,我们现在路上有很多地方就是不同的纹理。

通过这样的设计,线可以很容易的被计算机所区分,如果线或者这块能够被计算机所区分,实际上就是说HDMap里面可以找到一个唯一的标志,这是我们做很简单的改进以后,可以把原来唯一性的约束扩展一下。GPS信息或者其他的定位信息,可以得到初始的位置。我们的编码保证在感知范围之内,只要唯一编码,我们就可以把它确定下来。

基于车道线编码的车辆定位示意图

确定下来以后我们在事先放在高精度地图里面,把其坐标全部测出来,我们就可以把位置算出来,这是一个比较简单计算机视觉的定位问题。

我们找了一条比较偏僻的路,贴了一些不同颜色编码的车道线,可以很容易通过颜色的模型,把编码的车道线找到,再通过它的位置可以反算出车辆定位的信息。

3、多视角道路视觉指纹(Multi-view Road Signature)

我们实验室最早开始做的是从视觉地图出发,我们认为一个视觉地图要素有三个方面。第一:车辆定义的旋转和平移,对应的就是指纹特征,还有道路场景的结构信息,其实它的作用跟大家解释一下,指纹的信息是做匹配,跟我们指纹一样,我们路上每个地方都是不一样,特别是把不同的视角加进来一起看,每个地方的不一样,可以很快定位到现在到哪个位置。

我们的3D是做什么用的?是一个XYZ,再加上前端矩阵来表示我们车辆的位置,3D就是提供一个参考信息,这个参考信息有可能是一个相对的,最后我们是通过车辆的位置,把相对信息转换成一个绝对信息。

我们提出来一些场景的描述方式,这个是用传统的算法,是用特征的描述来描述场景不一样的地方,我们有俯视图,前视图,我们还提出一些比较快速的特征来做场景的表征。

我们现在用CNN来做场景的一个特征类表征,在这个计算机视觉里面,我们做场景类表征很著名类的方法就是BW方法,主要是基于特征点的一些方法。

这是是比较早期的一些结果,在封闭园区测试的一些结果,主要是基于HD Map,通过第一次做制图,把所有点的HD Map,所有的图像提出来以后,把它的特征提出来,把车辆的轨迹做出来。第二次通过匹配,算出车子的位置做定位,这是它基本的结果。

V2X本质上是一种基于位置服务(Location-Based Services: LBS),位置越精确,服务越精准;车辆位置感知是实现V2X实际应用的关键,特别是V2X应用于自动驾驶领域,高精度定位是V2X实用化的基础。今天我大概介绍了基于场景的智能定位算法,包括基于HDMap的位置感知、基于车道线编码的位置感知以及基于道路指纹的位置感知等工作情况。

以上就是我的汇报,谢谢大家。(完)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190209B0PN0V00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券