作者:Yipeng Mou,Mingming Gong,Huan Fu,Kayhan Batmanghelich,Kun Zhang,Dacheng Tao
摘要:大多数最先进的单眼深度估计方法是监督学习方法。这种方法的成功在很大程度上取决于获得昂贵的高质量深度标签。最近的方法试图通过探索单眼视频的无监督线索来学习深度网络,这些线索更容易获得但不太可靠。在本文中,我们建议通过从易于获得的地面实况深度标签转移合成视频的知识来解决这一难题。由于合成图像和真实图像之间的时尚差异,我们提出了一种时间上一致的域自适应(TCDA)方法,该方法同时探索合成域中的标签和视频中的时间约束,以改进样式转移和深度预测。此外,我们利用合成数据中的地面实况光流和姿势信息来学习移动掩模和姿态预测网络。学习的移动掩模可以滤除产生错误时间约束的移动区域,并且估计的姿势提供用于估计时间约束的更好的初始化。实验结果证明了我们的方法的有效性和与现有技术相当的性能。
原文标题:Learning Depth from Monocular Videos Using Synthetic Data: A Temporally-Consistent Domain Adaptation Approach
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。