论文地址: http://arxiv.org/pdf/2210.13723v1.pdf
来源: 中山大学
论文名称:S3E: A Large-scale Multimodal Dataset for Collaborative SLAM
原文作者:Dapeng Feng
内容提要
随着使用机器人团队协同执行任务的高级要求,研究界对协同实时定位和地图构建越来越感兴趣。遗憾地是,尽管不同智能体轨迹之间的泛化对协作任务的整体可行性至关重要,但现有的数据集在它们捕获协作轨迹的规模和变化方面是有限的。为了帮助将研究社区的贡献与真实的多主体协调SLAM问题结合起来,我们提供了S3E,这是一个由无人地面车辆车队沿着四个设计好的协作轨迹范式,捕获的新型大规模多模态数据集。S3E由7个室外和5个室内场景组成,每个场景都超过200秒,由同步和校准良好的高质量立体摄像机、激光雷达和高频IMU数据组成。至关重要的是,我们在数据集大小、场景可变性和复杂性方面的尝试超过了之前的努力。它的平均记录时间是EuRoC数据集的4倍。我们还提供了细致的数据集分析,以及协作SLAM和单一对应的基线。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有。