获取完整原文和代码,公众号回复:10031344868
论文地址: link: http://arxiv.org/pdf/2104.14682v1.pdf
代码: 公众号回复:10031344868
来源: the Technical University of Munich
论文名称:EagerMOT: 3D Multi-Object Tracking via Sensor Fusion
原文作者:Aleksandr Kim
内容提要
多目标跟踪(MOT)使移动机器人能够通过在已知的3D空间和时间内定位周围物体,来进行运动规划和导航。现有的方法依靠深度传感器(如激光雷达)在3D空间中探测和跟踪目标,但由于信号的稀疏性,只能在有限的传感范围内进行。另一方面,相机仅在图像域提供密集和丰富的视觉信号,帮助定位甚至遥远的物体。在本文中,我们提出了EagerMOT,这是一个简单的跟踪公式,从两种传感器模式集成了所有可用的目标观测,以获得一个充分的场景动力学解释。使用图像,我们可以识别遥远的目标,而使用深度估计一旦目标在深度感知范围内,允许精确的轨迹定位。通过EagerMOT,我们在KITTI和NuScenes数据集上的多个MOT任务中获得了最先进的结果。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。