前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >使用合成数据从单目视频学习深度:相同时域适应方法

使用合成数据从单目视频学习深度:相同时域适应方法

原创
作者头像
空白的小飞机
发布2019-07-17 15:54:24
4350
发布2019-07-17 15:54:24
举报

作者:Yipeng Mou,Mingming Gong,Huan Fu,Kayhan Batmanghelich,Kun Zhang,Dacheng Tao

摘要:大多数最先进的单眼深度估计方法是监督学习方法。这种方法的成功在很大程度上取决于获得昂贵的高质量深度标签。最近的方法试图通过探索单眼视频的无监督线索来学习深度网络,这些线索更容易获得但不太可靠。在本文中,我们建议通过从易于获得的地面实况深度标签转移合成视频的知识来解决这一难题。由于合成图像和真实图像之间的时尚差异,我们提出了一种时间上一致的域自适应(TCDA)方法,该方法同时探索合成域中的标签和视频中的时间约束,以改进样式转移和深度预测。此外,我们利用合成数据中的地面实况光流和姿势信息来学习移动掩模和姿态预测网络。学习的移动掩模可以滤除产生错误时间约束的移动区域,并且估计的姿势提供用于估计时间约束的更好的初始化。实验结果证明了我们的方法的有效性和与现有技术相当的性能。

原文标题:Learning Depth from Monocular Videos Using Synthetic Data: A Temporally-Consistent Domain Adaptation Approach

原文链接:https://arxiv.org/abs/1907.06882

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档