首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【三维重建】开源 | 北京大学&香港大学&腾讯--精确的稠密点云重建架构D2HC-RMVSNet,超越R-MVSNet

【三维重建】开源 | 北京大学&香港大学&腾讯--精确的稠密点云重建架构D2HC-RMVSNet,超越R-MVSNet

作者头像
CNNer
发布2020-08-31 16:23:27
1.4K0
发布2020-08-31 16:23:27
举报
文章被收录于专栏:CNNerCNNer

论文地址: http://arxiv.org/pdf/2007.10872v1.pdf

代码:https://github.com/yhw-yhw/D2HC-RMVSNet

来源: 北京大学,香港大学,腾讯

论文名称:Dense Hybrid Recurrent Multi-view Stereo Net with Dynamic Consistency Checking

原文作者:Jianfeng Yan

内容提要

本文提出了一种具有动态一致性检验的高密度混合递归多视图立体网络,即D2HC-RMVSNet,用于精确的稠密点云重建。该方法包括两个核心模块:1)一个光DRENet (Dense Reception Expanded)模块,提取具有多尺度场景信息的原始大小的密集特征图谱,2)一个HU-LSTM(Hybrid U-LSTM)调整3D匹配体规则化为预测深度图,通过LSTM与U-Net架构的耦合,有效地聚合不同规模的信息。为了进一步提高重构点云的准确性和完整性,我们采用了一种动态一致性检查策略。在此过程中,动态地聚合所有视图之间的几何一致性匹配错误。我们的方法在复杂的户外Tanks and Temples基准上排名第一,在内部DTU数据集上进行的广泛实验表明,本文方法性能SOTA,同时显著性地减少内存消耗,只花费了R-MVSNet内存消耗的19.4%。

主要框架及实验结果

声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请联系删除。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-08-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CNNer 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档