计算机视觉三大会议之——ECCV 2018 观看指南

整理:T.R

计算机视觉三大会议之一的ECCV2018将于9月8号到14号在德国慕尼黑召开!本次会议共接收论文779篇,同时在会议上将举行11场tutorials和43场各个领域的workshops。同时优秀的论文还将在会议上进行口头报告,在四天的会议日程中将会有59个orals报告覆盖了从视觉学习、图形摄影、人类感知、立体三维以及识别等各个领域。我们先来一探究竟吧!

根据网站上公布的论文题目,可以看到今年的研究热点依然围绕学习、网络等研究方式展开,但同时,检测、可视化和视觉方面的研究也占有重要的位置。接下来我们就提前来看看ECCV将为我们带来哪些精彩的研究前沿吧!Oral今年ECCV的主论坛将12个不同主题的分论坛分别安排到了10-13号四天的会议时间中,主要包括了视觉学习、计算摄影学、人类分析和感知、三维重建、优化与识别等领域。

还有来自爱丁堡大学和日本理化研究所的研究人员提出的深度匹配自编码器,用于从非配对多模态数据中学习出共有的隐含空间。

同时来自约翰霍普金斯大学、斯坦福大学和谷歌联合研究的渐进式神经架构搜索,用于学习神经网络的结构。通过基于序列模型的优化策略实现了高于强化学习和进化算法近五倍的效率和8倍的总体计算提升。并在CIFAR-10和ImageNet上取得了很高的精度。

值得一提的是,除了来自于霍普金斯的刘晨曦和谷歌的Zoph外,论文作者还包括李飞飞和李佳等。据报道这篇文章与NeuralArchitectureSearchwithReinforcementLearning和LargeScaleEvolutionofImageClassifiers等技术一起支撑了谷歌AutoML的发展。

在计算摄影学方向,包括了从点光源、光场、可编程器件等研究热点。来自慕尼黑工大的研究人员利用相机卷帘快门的特性优化了直接稀疏里程计的后端,实现了近实时的准确VO方法。

来自海德堡大学的研究人员提出了一种基于style-awarecontent的损失函数并联合自编码器训练出了实时高分辨率的风格迁移模型。使得生产的图像包含了更多更自然的美感。

来自圣迭戈分校和Adobe的研究人员提出了一种利用单张手机照片获取不同材料表面变化的双边反射率函数,通过神经网络实现了对于SVBRDF的估计,为光度渲染带来了新的可能。

在人类行为分析与感知包括了人体及各部分的姿态估计、人脸人手追踪、行人识别、行为预测等方面。来自布里斯托、卡塔尼亚和多伦多大学的研究人员们给出了一个用于研究人类行为习惯的第一人称数据库EPIC-KITCHENS,这一数据库记录了来自多个国家的参与者在厨房中的第一人称视角,包含了1150万帧图像和3.96万个动作分割与45.34万个bbox。这一数据集将用于第一人称的物体检测、行为识别和行为预测中去。

同样来自湖南大学和东京大学的研究人员提出了从第一人称视角来预测凝视注意力的模型。

来自中山大学、商汤和视源的研究人员们提出了一种通过部分xx网络实现了实例人体分析,通过将实例人体解析任务分解成语义分割和基于边缘检测将语义部件归并到确定人物身上的两个子任务来实现。

来自伯克利的研究人员提出了一种联合视频中图像和声音信息的网络用于融合多传感器的表达,利用自监督的方式训练出了一种可以预测视频帧和音频是否对齐的神经网络,并可用于视频声源定位、音-视识别和音轨分离等任务。

萨里大学和adobe的研究人员通过训练对称的卷积自编码器来学习出骨架关节位置的编码和身体的体积表示。能够准确恢复出关节位置的3D估计。

来自洛桑理工的研究人员也提出了一种非监督的3D人体姿态估计模型,通过自编码器可以从单一视角的图像预测另一个视角。由于它编码了3D几何表示,研究人员还将它用于半监督学习映射人体姿态。

在立体视觉三维重建方面,主要研究集中在几何、立体视觉和深度推理等方面。

来自中国香港科技大学的研究人员提出了利用非结构化的图像作为输入,端到端地推算出参考图像的深图信息。其提出的NVSNet将相机参数编码为可微单应性变换来得到视椎体损失体积,建立起了2D特征抽取和3D损失正则化之间的关系。最终通过3D卷积来对初始点云规则化和回归来得到最终的输出结果。

为了解决点云预测中点的位置与物体全局几何形状不匹配的问题的问题,港中文提出了几何对抗损失优化单视角下点云的全局三维重建。利用多视角几何损失和条件对抗损失来对网络进行训练。

多视角几何损失使得网络学习重建多视角下有效的3D模型,而条件对抗损失则保证重建的3D物体符合普通图片中的语义信息。除此之外还包括了普林斯顿的共面匹配方法、普林斯顿与谷歌共同完成的主动立体视觉网络以及慕尼黑工大提出的基于深度预测的单目稀疏直接里程计等研究工作。在匹配与识别方面涵盖了目标检测、定位、纹理和位置精炼等方面的研究。

来自清华北大、旷视和头条的研究人员提出了一种目标检测中描述框定位置信度的方法IoU-Net,并利用定位置信度来改善目标检测中非极大值抑制,以产生更精确的预测框。同时提出了基于优化的框提炼方法。

来自以色列理工学院的研究人员提出了一种基于上下文损失的图像迁移方法,适用于非对齐的数据。这种模型基于上下文和语义来定义损失。这一模型在卡通图像模拟、语义风格迁移和领域迁移中都表现除了很好的效果。

Tutorials

本届ECCV的tutorials同样是涉及了视觉领域各个方面的前沿内容,从对抗学习到3D重建,从行人识别到目标检测。一定能找到一个你需要的教程来深入学习。其中有Kaiming,rbg和Gkioxari等大神带来的视觉识别及其未来的系列教程。

还有神经网络训练中归一化方法的理论与实践、特征与学习的视觉定位。

还包括行人重识别的表达学习和基于步态&面部分析的识别方法。此外还包括快速三维感知重建和理解的tutorial。

更多内容请参阅,某些教程目前已经开放相关资料下载了:https://eccv2018.org/program/workshops_tutorials/Workshop最后我们来概览一番每次会议都必不可少的workshops。本届ECCV包括了43个workshops,其中包含了11个各领域的挑战赛。值得一提的是,很多来自中国的队伍在很多挑战赛中都取得了不错的成绩。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181004A0OM4Y00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券