首页
学习
活动
专区
工具
TVP
发布

教无人驾驶汽车预测行人行为 科学家到底是怎样做的

本文由腾讯数码独家发布

研究人的步态,了解人体匀称性,了解脚的位置,利用这些信息,美国密歇根大学研究人员就能训练无人驾驶汽车,让它们识别并预测行人的移动,精准度比现有技术更高。

研究人员用汽车摄像头、激光雷达、GPS收集信息,捕捉人类移动视频,然后在3D计算机模型中重建。有了这些资料,研究人员开发一个“受生物力学启发的递归神经网络”,给人类动作分类。

有了神经网络,当一个或者几个行人离汽车还有一段距离(最远50码),汽车就能预测他们的姿势和未来位置。这样的距离已经可以覆盖十字路口了。

密歇根大学机械工程助理教授Ram Vasudevan说:“在这一领域,此前一般只是关注静态图像,不会关心人是如何在3D世界移动的。当汽车投入使用,与现实世界交流时,我们必须对行人的前进方向进行预测,并与汽车的前进方向保持一致。”

如果想让汽车具备一定的预测能力,要求网络理解人类活动的细节:比如步态的节奏、四肢对称镜像、行走时脚的位置会给稳定带来怎样的影响。

在无人驾驶研发中,目前大多机器学习技术处理的是2D图像,也就是静态图片。向计算机展示大量与停车标志有关的照片,最终让它识别现实世界的停车标志,实时响应。

不过密歇根大学用视频训练神经网络,视频只有几秒长,系统深入理解前半段视频,然后做出预测,看看预测是否符合后半段视频,精准度如何。

密歇根大学造船和海洋工程系副教授Matthew Johnson-Roberson说:“现在我们对系统进行训练,让它识别动作,做出预测,不是简单识别一样东西,比如是不是停车标志,而是预测下一步行人的身体会变成怎样,再接下来又怎样,然后继续预测下一步。”

解释神经网络的运作原理时,Vasudevan打了个比方:“如果行人正在玩手机,你应该知道他的注意力不集中,分散了。姿势,正在观看什么,这些信息会告诉你他们的注意力等级如何,还能告诉你接下来他们能做什么。”

事实证明,新系统可以增强无人驾驶汽车的识别预测能力。

Johnson-Roberson说:“在我们的预测中,如果是一秒之后的预测,中位平均误差大约是10厘米,如果是6秒之后的预测,误差不到80厘米。用其它方法预测,误差中值最高可达7米,所以用我们的系统预测行人位置,精准度高很多。“

在预测下一步行动时会涉及到选项,为了控制选项数量,研究人员将人类身体的物理约束考虑进去,比如人是无法飞翔的,最快的步伐速度也有是限制的。

为了创建数据集,给神经网络用,研究人员将一辆Level 4无人驾驶汽车放在几个十字路口。汽车摄像头和激光雷达瞄准十字路口,一次可以记录多天的数据。

在实验室,研究人员已经从传统姿势数据集收集信息,用来增强现实世界收集的数据。最终他们开发的系统可以让无人驾驶汽车变得更强大。

密歇根大学研究工程师杜小小(Xiaoxiao Du)说:“对于多样化应用和跨学科合作,我们保持开放态度,我们希望能创造一个更安全、更健康、更高效的宜居环境,或者为此做出贡献。”

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190214A01VRY00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券