论文地址:http://arxiv.org/pdf/2003.00619v2.pdf 代码:https://github.com/lppllppl920/densedescriptorlearning-pytorch. 来源:美国约翰霍普金斯大学 论文名称:Extremely Dense Point Correspondences using a Learned FeatureDescriptor 原文作者:Xingtong Liu
使用内窥镜视频的高质量三维重建在许多临床应用中发挥着重要作用,例如作为直接的录像记录进行手术指导。在内窥镜视频的多视点三维重建中,很多方法表现不佳。部分原因是,面对缺乏纹理的解剖学表面,建立成对的点对描述进行3D重建比较困难。基于学习的稠密描述符通常具有更大的接受域,可以对全局信息进行编码,从而消除匹配的歧义。在本文中,提出了一种有效的自监督训练方案和设计了一种新的可以用于稠密点云描述子学习的loss方法。通过比较一个鼻窦内窥镜的数据集的局部和高密度描述,证明本文提出的稠密描述符可以推广到更多的患者和范围,从而在模型密度和完整性方面极大地提高了SfM的性能。同时,在公共密集光流数据集和小型的SfM公共数据集上评估了本文方法,进一步证明了该方法的有效性和通用性。
下面是论文具体框架结构以及实验结果:
声明: 文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请联系删除