首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

清华大学崔鹏:自动驾驶感知脆弱性的根源在哪?

作者 / 华卫

人工智能贯穿了无人驾驶系统的全链条,包括感知、预测、规划和控制各环节都有人工智能的技术应用和部署。然而,目前来看,无人驾驶系统的安全性依然令人担忧,尤其是面对一些corner case场景时。

那么,当前自动驾驶系统的安全性瓶颈究竟是什么?如何提升应用于自动驾驶的人工智能算法安全?

近期,在由中国汽车工程学会、清华大学、北京大学联合举办的「生成式人工智能与自动驾驶」专题分会上,清华大学长聘副教授崔鹏老师从人工智能研究的角度出发,对上述问题进行了分析和解答,并在此基础之上给出了「沿途下蛋」的解决方向。

感知系统脆弱性的根源

缺失OOD能力

目前,无人驾驶仿真系统是面向corner case的解决方案之一。从人工智能研究的角度来看,这种仿真系统处理决策层面的corner case较为容易,但很难解决感知层面的corner case。这取决于仿真技术的逼真程度,即所仿的感知层面数据和在真实世界里看到的corner case数据是否逼近。

「现在的感知系统脆弱性很强,如果不解决这个问题,整个系统的安全都会被影响。」崔鹏认为,感知系统脆弱性的根源是分布外泛化能力(Out-Of-Distribution, OOD)的缺失

经典的机器学习方法基于i.i.d.假设,训练和测试数据是独立同分布的。然而,在真实场景中,测试时和训练时的数据分布往往并非保持一致,i.i.d.假设得不到满足,就很难保证系统性能,需要面临分布外泛化的问题。

「我们需要把所有的corner case都转化成common case,才能用当前的机器学习方法去解决。」崔鹏表示,想让系统具有处理全量数据的能力,需要在训练阶段就给它喂与全量数据差不多的当量数据。但实际上,对于各类场景,人类驾驶员是通过自身较强的外推泛化能力来处理的。

因此,他指出,提升自动驾驶算法安全的重要技术途径是:提升自动驾驶人工智能算法的OOD能力

OOD泛化的两条路:

「以不变应万变」

根据崔鹏的介绍,OOD可分为两种情况。如果测试数据分布已知(或部分已知),为OOD自适应(OOD Adaptation);如果测试数据分布完全未知,才是OOD泛化(OOD Generalization)。

而OOD泛化又和传统机器学习的泛化存在差别,后者是「内插」问题,OOD泛化则更多是「外插」问题。

崔鹏表示,外插的基础是不变性(Invariance),只有找到不变性,才能够以不变应万变。为此,其围绕两条技术路径来做探索:因果推理和从异质性中找到不变机制

为将因果关系具有不变性属性的结构集成到机器学习框架中,崔鹏团队研究了多个输入变量对输出变量预测性的影响。在稳定学习框架下,其试图找到一组合适的样本权重,进行样本重加权后再通过输入变量对输出变量进行回归,当回归系数即为满足因果关系的回归系数,训练出的模型具有OOD的泛化能力。

另一条技术路径,则是首先采用数据驱动的方式去发现给定数据中的异质性,再提出一种新的优化框架,根据异质性找到其中的不变性。

「沿途下蛋」的解决方案

除指出长远技术路径外,崔鹏还为现有自动驾驶算法泛化的「沿途下蛋」提供了新的发展方向。

在他看来,可以通过对人工智能算法进行泛化边界评测,并逐步扩大模型的泛化边界,从而使算法朝着更加理想的状态发展。

此外,崔鹏提出,可以同时采用多个相对弱但明确泛化边界的模型,来实现算法目标。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OxL74M1rg9LXHav157uXDRvw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券