编辑:AI资源汇
1 2019年,Visual-Inertial Mapping with Non-Linear Factor Recovery.
开源代码:gitlab.com/VladyslavUse
通过重建非线因子图,将回环约束加入到因子图中,进行全局非线性优化,与SOTA的方案进行对比实验如下:
值得注意的这个文章中的方法并不直接进行imu预积分,而是将高帧率的视觉惯性信息包含从非线优化边缘化中所提取的因子中。
2.2019年 VIL-VIO: Stereo Visual Inertial LiDAR Simultaneous Localization and Mapping
论文中指出,尽管LiDAR-based 的方法本身就已经具有较高的精度,为什么还需要结合其他传感器?因为LiDAR在穿越隧道时会失效。系统由紧耦合双目vio和LiDAR mapping,以及 LiDAR enhanced visual loop closure. 与SOTA的LiDAR方法比起来,论文提出的方法健壮性和精度都有提升。与SOTA的其他VIO方法的结果对比:
在隧道中的效果要比LOAM好,LOAM几乎是失效的
基于学习方法的例子:
1 Shamwell, E. Jared, et al. "Unsupervised Deep Visual-Inertial Odometry with Online Error Correction for RGB-D Imagery." IEEE transactions on pattern analysis and machine intelligence (2019).
学会了在没有惯性测量单元(IMU)内在参数或IMU和摄像机之间的外部校准的情况下执行视觉惯性里程计(VIO)
网络学习整合IMU测量并生成假设轨迹,然后根据相对于像素坐标的空间网格的缩放图像投影误差的雅可比行列式在线校正。
2 Chen, Changhao, et al. "Selective Sensor Fusion for Neural Visual-Inertial Odometry." arXiv preprint arXiv:1903.01534 (2019).
该文论CVPR2019已经接收。
论文集中在如何学习多传感器融合策略上。提出了一种针对单目VIO的端到端的多传感器选择融合策略。
具体是指提出了两种基于不同掩蔽策略(masking strategies)的融合模态:确定性软融合和随机硬融合,并与先前提出的直接融合baseline进行比较。在测试期间,网络能够选择性地处理可用传感器模态的特征并且产生确定尺度下的轨迹。
在MAV和 hand-held VIO 数据集上的测试表明了论文提出的融合策略相对直接融合,具有更好的性能,特别是在传感器由损坏数据的情况下。
此外,通过可视化不同场景中的掩蔽层和不同的数据损坏来研究融合网络的可解释性,揭示融合网络与不完美的传感输入数据之间的相关性。
3 Lee, Hongyun, Matthew McCrink, and James W. Gregory. "Visual-Inertial Odometry for Unmanned Aerial Vehicle using Deep Learning." AIAA Scitech 2019 Forum. 2019.
这篇文章针对传统的VIO需要进行标定的问题,提出一种网络,可以不需要标定
4 Wang, Chengze, Yuan Yuan, and Qi Wang. "Learning by Inertia: Self-supervised Monocular Visual Odometry for Road Vehicles." ICASSP 2019-2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2019.
这篇论文提出了inertia-embedded deep visual odometry,通过构建惯性误差函数对VO进行自监督的训练。