论文地址: https://arxiv.org/abs/2006.16670v3.pdf
代码: 公众号回复:09051543667
来源: 海峡大学, 牛津大学
论文名称:EndoSLAM Dataset and An Unsupervised Monocular Visual Odometry and Depth Estimation Approach for Endoscopic Videos Endo-SfMLearner
原文作者:Kutsev Bengisu Ozyoruk
内容提要
深度学习技术有望开发出用于内窥镜视频的密集地形重建和姿态估计方法。然而,目前可用的数据集不支持有效的定量基准测试。在本文中,我们介绍了一个全面的内窥镜SLAM数据集,包括6个猪器官的3D点云数据、capsule和标准内窥镜记录以及综合生成的数据。一个Panda机器人手臂,两个商业capsule内窥镜,两个传统内窥镜不同的相机属性,和两个高精度3D扫描仪被用来收集八个离体猪胃肠道器官的数据。共35个子数据集提供了离体部分的6D 姿态 ground truth,其中结肠18个子数据集,胃12个子数据集,小肠5个子数据集,其中4个子数据集包含了一位胃肠病学专家所做的模拟息肉的高程。包含来自胃、结肠和小肠的具有深度和位姿标注的合成capsule内镜框架,便于模拟到真实迁移学习算法的研究。此外,我们还提出了一种无监督的单目深度和姿态估计方法Endo-SfMLearner,该方法将剩余网络与空间注意模块相结合,以便命令网络聚焦于可区分的、高度纹理化的组织区域。该方法利用亮度感知光度损失来提高在快速帧间照度变化下的鲁棒性,这种变化在内镜视频中很常见。为了举例说明EndoSLAM数据集的用例,我们将Endo-SfMLearner的性能与最先进的SC-SfMLearner、SfMLearner和Monodepth2进行了广泛的比较。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。