前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >让AI自动调参,才是百度无人车的进化方式:适应环境全靠自己 | 论文

让AI自动调参,才是百度无人车的进化方式:适应环境全靠自己 | 论文

作者头像
量子位
发布2018-09-29 10:32:55
4610
发布2018-09-29 10:32:55
举报
文章被收录于专栏:量子位量子位
车栗子 发自 凹非寺 量子位 出品 | 公众号 QbitAI

自动驾驶汽车,需要应对各式各样的路况,工作环境是每时每刻在变化的。

所以,训练好L4级的自动驾驶系统并不简单。需要依赖奖励函数 (Reward Function) 和代价函数 (Cost Function) 。

如此一来,研究人员需要花大量精力,给强化学习里的这些函数调参环境越复杂,调参的工作就越难做。

不过,百度自动驾驶部门的人类,想要解放双手,将调参重任托付给AI自己。

于是,他们开发了自动调参方法,让AI能够用更短的训练时间,获得应对复杂驾驶场景的能力。

划重点:快速适应多种环境

离线调参更安全

自动驾驶汽车,需要能应付各种场景的AI系统。

这个动作规划系统,是基于百度Appollo自动驾驶框架研发的。

系统是数据驱动的,用到的数据包括专家驾驶数据周围环境数据

上图可以看出,系统分为离线在线两个部分:

1.在线模块,负责生成一条最优的运动轨迹,用的是奖励函数。 2.离线调参模块,才是用来生成奖励函数代价函数的,且是可以随着环境调整的函数。

所以,第二部分是重点。要看一组参数好不好,模拟测试路测都不可少 (如下图) 。

为了减少反馈循环 (Feedback Cycles) 消耗的时间,百度用基于排名的条件逆强化学习 (Rank Based Conditional IRL) 框架,来调教奖励/代价函数,代替漫长的手动调参。

模型是如何炼成的

那么,看看模型具体的样子:

还是在线离线两部分,不过可以看出这个新的强化学习调参框架 (RC-IRL) 所在的位置了。

工作流程

原始特征生成器 (Raw Feature Generator),从环境里获取输入,评估采样轨迹或者专家驾驶轨迹。从中选出一些轨迹,给在线模块和离线模块共同使用。

从轨迹中,把原始特征提取出来之后,在线评估器中的奖励/代价函数,会给出一个分数

最后,把分数排列出来,或者用动态规划 (Dynamic Programming) ,来选择最终输出的一条轨迹。

训练过程

训练数据是从1000+小时的专家驾驶数据里选出来的,把没有障碍物没有车速变化的部分剔除了,余下7.18亿帧,保障训练的难度。

训练过程是离线的,适用于大规模测试,也适用于处理边角案例 (Corner Cases) 。

另外,数据也是自动收集、自动标注的,又为人类节省了体力。

价值函数,用SIAMESE网络来训练。这一部分,是用来捕捉驾驶行为的,依据许多特征来捕捉。

训练好了,就去参加测试。模拟测试的内容包括:停车,转弯,变线,超车以及更加复杂的场景。

模拟器之后是路测。截至今年7月25日,系统已经历了超过25,000英里的路测。团队说,AI到目前为止表现良好。

再赢一次?

两天前,百度宣布和神州优车达成合作,一同探索自动驾驶技术的商业化。

一周前,Waymo子公司“惠摩”落户上海。

自动驾驶的赛场上,谁也不会放慢脚步。

有一天,如果Waymo无人车来了中国,不知百度能不能“再赢一次”。

论文传送门: https://arxiv.org/pdf/1808.04913.pdf

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-08-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 离线调参更安全
  • 模型是如何炼成的
    • 工作流程
      • 训练过程
      • 再赢一次?
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档