计算机视觉论文速递

重磅干货,第一时间送达

前戏

看到大家在后台给我留言,说"这篇文章对我很有用,感谢你"、"今天点了两次广告哦",很暖心。我也很开心,在写作的时候,和大家一起成长。微信群里的大佬很多,我也学习了很多;QQ群里资料很多,我只感叹时间太少了,真心一鼓作气多看点。

PS:所以记得顺手点一下"文末的广告"哦~

今天回顾初心,整理一下计算机视觉方向的最新论文。如果说在AI届或者CV圈,现在议论什么的最多,莫过于ICML 2018、IJCAI 2018和ACL 2018。但本文并不会介绍这里的文章,而是介绍将于2018年9月召开的ECCV 2018的部分paper。ECCV 2018是计算机视觉领域中的顶级会议,目前已经公开了部分已录用的paper。

Semantic Segmentation

《Effective Use of Synthetic Data for Urban Scene Semantic Segmentation》

ECCV 2018

Dealing with background classes

Dealing with foreground classes

Qualitative results on Cityscapes

Abstract:训练深度网络以执行语义分割需要大量标记数据。为了减轻注释真实图像的手动工作,研究人员研究了合成数据的使用,这些数据可以自动标记。不幸的是,在合成数据上训练的网络在真实图像上表现得相对较差。虽然这可以通过域适应(domain adaptation)来解决,但是现有方法都需要在训练期间访问真实图像。在本文中,我们介绍了一种截然不同的处理合成图像的方法,这种方法不需要在训练时看到任何真实的图像。Our approach builds on the observation that foreground and background classes are not affected in the same manner by the domain shift, and thus should be treated differently。特别是,前者应该以基于检测的方式处理,以更好地解释这样的事实:虽然它们在合成图像中的纹理不是照片般逼真的,但它们的形状看起来很自然。我们的实验证明了我们的方法对Cityscapes和CamVid的有效性,仅对合成数据进行了训练。

arXiv:https://arxiv.org/abs/1807.06132

注:domain adaptation这个概念最近很火!

Stereo

《ActiveStereoNet: End-to-End Self-Supervised Learning for Active Stereo Systems》

ECCV 2018

ActiveStereoNet (ASN) produces smooth, detailed, quantization free results

using a pair of rectified IR images

ActiveStereoNet architecture

Abstract:在本文中,我们介绍ActiveStereoNet,这是active立体声系统的第一个深度学习解决方案。由于缺乏ground truth,我们的方法是完全自监督的,但它产生精确的深度,子像素精度为像素的1/30;它没有遭受常见的过度平滑问题;它保留了边缘;它明确地处理遮挡。我们引入了一种新的重建损失(reconstruction loss),它对噪声和无纹理patches更加稳健,并且对于光照变化是不变的。使用具有自适应支持权重方案的基于窗口的成本聚合来优化所提出的损失。这种成本聚合是边缘保留并使损失函数平滑,这是使网络达到令人信服的结果的关键。最后,我们展示了预测无效区域(如遮挡)的任务如何在没有ground truth的情况下进行端到端的训练。该component对于减少模糊至关重要,特别是改善了深度不连续性的预测。对真实和合成数据进行广泛的定量和定性评估,证明了在许多具有挑战性的场景中的最新技术成果。

arXiv:https://arxiv.org/abs/1807.06009

看到这里,还不去文末给Amusi点广告么,么么哒

  • 发表于:
  • 原文链接:https://kuaibao.qq.com/s/20180719G02MQ600?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券