ECCV 2018 收录论文名单全公布

ECCV 2018 将于2018年9月8日~14日在德国慕尼黑城市举行。本文将介绍第一手消息:ECCV 2018 所有的收录论文名单(含论文标题及PDF下载链接)。

前戏

前天从朱政研究员那里得知,ECCV 2018所有录用论文已经开放并支持PDF下载了。因为事情较多,就没来得及推送到CVer公众号,而是在Amusi的知乎专栏上推送的,在此向各位CVers说声抱歉。

但就算耽搁了两天,CVer似乎也是第一时间分享这一消息的平台。此处应该来点掌声,难道你不会激动地去文末点个赞么?(嘿嘿.jpg)

ECCV 2018 所有录用论文清单

今年ECCV 2018应该是第一次加入CVF项目,这下子CVF终于集齐了计算机视觉的三大顶会:CVPR、ICCV和ECCV。

如何查看ECCV 2018 所有录用论文的清单呢?(待标题和PDF的那种)

首先,打开下述链接,就可以看到你心念念的ECCV 2018所有录用论文了!

link: http://openaccess.thecvf.com/ECCV2018.py

网页内容如下,看到木有!赤果果的论文标题和PDF下载链接。多贴心啊,还附上了引用信息的bibtex。

这里要吐槽一下,虽然网址还"贴心的"提供了搜索框,但Amusi觉得那就是个摆设,因为无法使用。(难道我打开的方式不对)。

这里呼吁一下会爬虫的宝宝,希望你可以将ECCV 2018所有的论文download下来。如果成功了,欢迎私下联系我哦!

CVer

Welcome to click AD

ECCV 2018 论文节选

CVer 曾推送过9次文章,关于ECCV 2018论文速递,现将部分内容整理如下,希望可以帮助到各位CVers。

Semantic Segmentation

《Effective Use of Synthetic Data for Urban Scene Semantic Segmentation》

ECCV 2018

Dealing with foreground classes

Qualitative results on Cityscapes

Abstract:训练深度网络以执行语义分割需要大量标记数据。为了减轻注释真实图像的手动工作,研究人员研究了合成数据的使用,这些数据可以自动标记。不幸的是,在合成数据上训练的网络在真实图像上表现得相对较差。虽然这可以通过域适应(domain adaptation)来解决,但是现有方法都需要在训练期间访问真实图像。在本文中,我们介绍了一种截然不同的处理合成图像的方法,这种方法不需要在训练时看到任何真实的图像。Our approach builds on the observation that foreground and background classes are not affected in the same manner by the domain shift, and thus should be treated differently。特别是,前者应该以基于检测的方式处理,以更好地解释这样的事实:虽然它们在合成图像中的纹理不是照片般逼真的,但它们的形状看起来很自然。我们的实验证明了我们的方法对Cityscapes和CamVid的有效性,仅对合成数据进行了训练。

arXiv:https://arxiv.org/abs/1807.06132

注:domain adaptation这个概念最近很火!

Stereo

《ActiveStereoNet: End-to-End Self-Supervised Learning for Active Stereo Systems》

ECCV 2018

ActiveStereoNet (ASN) produces smooth, detailed, quantization free results using a pair of rectified IR images

ActiveStereoNet architecture

Abstract:在本文中,我们介绍ActiveStereoNet,这是active立体声系统的第一个深度学习解决方案。由于缺乏ground truth,我们的方法是完全自监督的,但它产生精确的深度,子像素精度为像素的1/30;它没有遭受常见的过度平滑问题;它保留了边缘;它明确地处理遮挡。我们引入了一种新的重建损失(reconstruction loss),它对噪声和无纹理patches更加稳健,并且对于光照变化是不变的。使用具有自适应支持权重方案的基于窗口的成本聚合来优化所提出的损失。这种成本聚合是边缘保留并使损失函数平滑,这是使网络达到令人信服的结果的关键。最后,我们展示了预测无效区域(如遮挡)的任务如何在没有ground truth的情况下进行端到端的训练。该component对于减少模糊至关重要,特别是改善了深度不连续性的预测。对真实和合成数据进行广泛的定量和定性评估,证明了在许多具有挑战性的场景中的最新技术成果。

arXiv:https://arxiv.org/abs/1807.06009

Instance Segmentation

《Semi-convolutional Operators for Instance Segmentation》

ECCV 2018

Approaches for instance segmentation based on dense coloring via convolutional pixel embeddings cannot easily distinguishing identical copies of an object

Instance segmentation on Pascal VOC 2012

Abstract:目标检测(Object detection)和实例分割(instance segmentation)由基于区域的方法(例如Mask RCNN)主导。然而,人们越来越关注将这些问题减少到像素标记任务,因为后者可以更高效,可以在许多其他任务中使用的图像到图像(image-to-image)网络架构中无缝集成,并且对于不能由边界框近似的目标更加准确。在本文中,我们从理论和经验上表明,使用卷积算子不能轻易地实现构建可以分离对象实例的 dense pixel embeddings 。同时,我们表明简单的修改,我们称之为 semi-convolutional,其在这项任务中有更好的表现。我们证明了这些算子也可用于改进Mask RCNN等方法,展示了比单独使用Mask RCNN可实现的复杂生物形状和PASCAL VOC类别更好的分割。

arXiv:https://arxiv.org/abs/1807.10712

注:嗯,超越了Mark R-CNN

原文发布于微信公众号 - CVer(CVerNews)

原文发表时间:2018-09-05

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏一心无二用,本人只专注于基础图像算法的实现与优化。

水下图像增强相关算法的一个简单小结。

最近一直没有找到感兴趣的研究课题,下了几个最新的去雾的论文,随便看了下,觉得都是为了写论文而做的论文,没有什么创新性,也就没有想法去实现他们。偶尔看到了一些关...

5717
来自专栏人工智能头条

应用深度学习时需要思考的问题

1583
来自专栏机器之心

学界 | Jeff Dean等人提出ENAS:通过参数共享实现高效的神经架构搜索

2946
来自专栏CreateAMind

cyclegan 学习深度信息的效果

每个视频的深度基础真实存储在16位灰度PNG图像中: 深度值是从z缓冲区获得的相机平面距理(https://en.wikipedia.org/wiki/Z-b...

1042
来自专栏Python爬虫与算法进阶

初步尝试 sklearn

Scikit-learn是一个用于Python编程语言的免费软件机器学习库。 它具有各种分类,回归和聚类算法,包括支持向量机,随机森林,梯度增强,k均值和DBS...

1012
来自专栏机器之心

ECCV 2018 | 给Cycle-GAN加上时间约束,CMU等提出新型视频转换方法Recycle-GAN

作者:Aayush Bansal、Shugao Ma、Deva Ramanan、Yaser Sheikh

1391
来自专栏ATYUN订阅号

使用深度学习检测面部特征,让实时视频聊天变得更有趣

也许你想知道如何在实时视频聊天或者检测情绪的时候把有趣的东西放在脸上?我们可以利用深度学习以及一种较老的方法实现它。 ? 过去,检测人脸及其特征(如眼睛、鼻子、...

3465
来自专栏大数据文摘

资源 | Kaggle数据科学项目索引表,10大类93项,更新中

为了使Kaggle上的资源获得最大化的利用,一位来自印度的数据科学家sban设计了一个数据科学模型、技术和工具的项目索引表。

940
来自专栏磐创AI技术团队的专栏

一个完整的机器学习项目在Python中的演练(二)

2197
来自专栏IT技术精选文摘

MILABOT:基于深度强化学习打造聊天机器人

1913

扫码关注云+社区

领取腾讯云代金券