首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

这项技术能“看清”300米远的障碍物,定位精度1厘米

  当自动驾驶车辆越来越多地从科幻电影开上城市道路,如何提升其安全性?科学家们为此做了诸多探索。近日,在全球规模最大的创新展览——2022年第49届日内瓦国际发明展上,国家智能网联汽车创新中心的“主动多模态感知的移动作业平台”项目获得金奖。该项目由国家智能网联汽车创新中心主任、国汽智联技术委员会主任、中国工程院院士李骏团队完成,通过突破多传感融合技术,让自动驾驶车辆能“看清”300米远的障碍物,定位精度可达1厘米,以此为自动驾驶的安全保驾护航。

作为北京经开区的一个国家级创新中心,国家智能网联汽车创新中心承担着智能网联汽车产业发展核心智库、共性技术研发中心、创新服务公共平台、创新生态协同平台、创新成果转化基地等功能责任,致力于提升国内智能网联汽车及相关产业在全球价值链中的地位。此次研发项目也成为国家智能网联汽车创新中心在前沿理论、技术先行性等方面不断探索的一项典型成果。

而这条通往金奖的自主研发路,项目团队已经走了4年多。据该项目团队核心成员、清华大学张新钰介绍,自动驾驶车辆获取路况信息主要依靠传感器,如车载激光雷达、车载图像、毫米波雷达等。早年间,自动驾驶车辆依靠传感器的决策级融合来获取信息,在路口、隧道等复杂路况下容易发生事故,因此使用多种传感器,进行原始信息融合的综合评判成为发展趋势。但如何解决多种传感信息的有效融合又成为新的难题。2016年,李骏院士提出“智慧城市、智能交通、智能汽车融合一体化发展战略”,并于2018年开始带领团队进行技术攻关。

在这一过程中,团队成员首先实现技术原理的从无到有。针对复杂动态环境下自动驾驶感知安全的问题,传统的多模态融合网络设计方案多基于人工设计和结果导向,其中的底层逻辑难以解释,形成技术“黑盒”。为此,他们发明了面向自动驾驶的多源异构信息融合方法,利用信源信道联合编码理论透明化这一“黑盒”,解释了多模态特征融合底层机理,解决了融合网络可靠性与感知结果可信度的计算难题。

其次,面对复杂动态场景下,自动驾驶车辆使用多种传感器所获取的信息之间存在误差这一问题,技术团队提出了基于线特征的单目相机和3D激光雷达自动联合标定技术,克服了由于负载变化或震动等原因导致的传感器空间位置变化对系统的影响,在车辆行驶过程中实现了传感器间的精确自动标定。同时,针对动态交通参与者的三维目标检测难题,他们研发了基于注意力机制的异构模态高精度融合算法,探索出一种融合精度高、网络复杂度低且推理时延小的融合机制,对小目标检测距离可达300米。此外,针对码头、停车场等半动态场景下卫星导航定位系统失效问题,他们发明了基于特征点标定的自主融合定位方法,实现了高精度和通用性的自主定位,位置误差可以保持在1厘米内。

另一方面,针对路口等复杂混合交通环境下车辆感知范围受限的问题,团队从“单车智能”向“车路协同”演进,利用多源异质传感器的冗余互补优势,实现了复杂环境下大规模自动驾驶车辆的车路协同感知。

“现在,这个研发项目的核心技术已在滴滴、美团、多家车厂、路测机构等落地应用。接下来将进一步推进项目在‘车路协同’领域的技术突破和规模化应用。”张新钰说。以新技术加速场景落地,作为网联云控式高级别自动驾驶示范区和北京市智能网联汽车政策先行区,北京经开区的智能网联汽车产业也实现跨越式发展,让“聪明的车”驶上“智慧的路”,“单车智能+车路协同”也成为自动驾驶的“北京模式”。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20220627A0AJCM00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券