专栏首页机器之心CVPR 2018奖项出炉:两篇最佳论文,何恺明获PAMI 青年研究员奖

CVPR 2018奖项出炉:两篇最佳论文,何恺明获PAMI 青年研究员奖

机器之心报道

参与:机器之心编辑部

昨日,一年一度的计算机视觉顶级会议 CVPR 2018 在美国盐湖城拉开帷幕,排起长龙的注册队伍让现场参会的机器之心分析师看到了这届 CVPR 的火热。据统计,本届大会有超过 3300 篇的大会论文投稿,录取 979 篇(接受率约为 29%,其中包括 70 篇 Oral 和 224 篇 Spotlight 论文)。

而在一个小时前,最受关注的 CVPR 2018 最佳论文结果揭晓:来自斯坦福大学和 UC Berkeley 的 Amir R. Zamir 等人获得 CVPR2018 的最佳论文(Best Paper Award);来自卡内基梅隆大学的 Hanbyul Joo 等人获得了本届大会最佳学生论文奖(Best Student Paper Award)。此外,Tübingen 大学教授 Andreas Geiger 与 FAIR 研究科学家何恺明获得本届大会的 PAMI 年轻学者奖。

在 19 号上午的主会议上,CVPR 方面先介绍了今年大会的数据信息,除了论文接收量再次超越往年,今年的注册参会人员也达到了 6512 位。

此外,论文评审人员的数量在今年也达到了新高,2385 名 reviewer,而 2014 年 CVPR 的参会人员也才 2000 人左右。

介绍完大会数据方面的信息,接下来就是揭晓最佳论文得主了:

最佳论文

CVPR2018 的最佳论文(Best Paper Award)由斯坦福大学和 UC Berkeley 的 Amir R. Zamir 等人获得。他们提出了一个映射视觉任务空间的框架,通过计算不同任务的相关性来确定迁移学习方案,从而可以在保持准确率的同时,大大降低对数据、监督信息和计算资源的需求。

最佳论文:Taskonomy: Disentangling Task Transfer Learning

论文链接:http://taskonomy.stanford.edu/taskonomy_CVPR2018.pdf

视觉任务之间是否相关?例如,能否使用曲面法线简化估计图像深度的过程?直觉上对这些问题的正面回答暗示着在各种视觉任务之间存在一种结构。了解这种结构具有巨大的价值;它是迁移学习背后的概念,且可为识别任务间的冗余提供了一种有理可依的方法,比如,为了在相关任务间无缝地重复使用监督或在一个系统中解决多个任务而不增加复杂度。

我们提出了一种完全计算的方法来建模视觉任务的空间结构,通过在一个位于隐空间内的 26 个二维、2.5 维、三维和语义任务中寻找(一阶或更高阶)迁移学习依赖关系来实现。其成品是用于任务迁移学习的计算分类图。我们研究了这个结构的成果,比如出现的非平凡相关关系,并利用它们减少对标注数据的需求。比如,我们展示了解决一组 10 个任务所需的标注数据点总数可以减少约 2/3(与独立训练相比),同时保持性能几乎一致。我们提供了一套计算和探测这种分类结构的工具,包括一个求解器,用户可以用它来为其用例设计有效的监督策略。

该项目也已开源并放出官方的 API 和 Demo:http://taskonomy.stanford.edu/

视频内容

会后,该论文的第一作者、斯坦福大学和加州大学伯克利分校的博士后研究员 Amir Roshan Zamir 告诉机器之心记者,「这篇论文主要围绕了当前机器学习系统最大的缺点,也就是需要很多标注数据才能完成它们想要的结果。人类是可以借鉴学到的不同技能,也就是迁移学习,你在第一盘棋中学到的技能可以用到第 10、第 100 盘棋,这篇论文的重点就是将这个概念带去机器学习、尤其是在感知(perception)这块儿。基本上你用你之前学的技能解决新的问题。」

该论文的共同二作,斯坦福大学计算机科学系的现本科生/准博士生沈博魁告诉记者,他们的目标是找到不同任务之间的关联,这些任务比如说是深度感知(depth-perception)、surface normal estimation 之类的,发现这些关联之后就能用更少的数据来解决更多的任务。比如用边缘检测和 surface normal estimation 就能更好地学深度感知。

最佳学生论文

本届大会的最佳学生论文(Best Student Paper Award)由来自卡耐基梅隆大学(CMU)的 Hanbyul Joo、Tomas Simon、Yaser Sheikh 获得。该研究提出了一种 3D 人体模型,不仅可以追踪身体的姿势,还可以追踪人脸表情和手势等微小动作。

最佳学生论文:Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies

论文链接:http://www.cs.cmu.edu/~hanbyulj/totalbody/totalcapture.pdf

摘要:我们展示了一种用于无标记捕捉多尺度人类动作(包括人脸表情、身体动作和手势)的统一变形模型(deformation model)。初始模型通过将人体各部位的模型进行局部组合来形成,我们称之为「弗兰肯斯坦」模型。该模型能够通过单个无缝模型完整表达人体部位的动作,包括人脸和手的动作。通过对穿着日常服饰的人们进行大规模数据收集,我们优化弗兰肯斯坦模型以创建「亚当」(Adam)。亚当是校准模型,它与初始模型具备同样的基础层级,但是它可以表现头发和衣服的几何形状,使之可直接用于查看衣服和人是否相配,就像真的在日常生活中穿了这些衣服一样。最后,我们展示了这些模型可用于整体动作追踪,同时捕捉一组人的大规模身体动作和细微的面部和手部动作。

作为计算机视觉的研究,最佳学生论文也有自己的展示页:http://www.cs.cmu.edu/~hanbyulj/totalcapture/

视频内容

荣誉提名奖(Honorable Mention)

  • 论文:Deep Learning of Graph Matching
  • 作者:Andrei Zanfir、Cristian Sminchisescu
  • 论文链接:http://openaccess.thecvf.com//content_cvpr_2018/papers/Zanfir_Deep_Learning_of_CVPR_2018_paper.pdf
  • 论文:SPLATNet: Sparse Lattice Networks for Point Cloud Processing
  • 作者:Hang Su、Varun Jampani、Deqing Sun、Subhransu Maji、Evangelos Kalogerakis、Ming-Hsuan Yang、Jan Kautz
  • 论文链接:https://arxiv.org/abs/1802.08275
  • 论文:CodeSLAM - Learning a Compact, Optimisable Representation for Dense Visual SLAM
  • 作者:Michael Bloesch、Jan Czarnowski、Ronald Clark、Stefan Leutenegger、Andrew J. Davison
  • 论文链接:https://arxiv.org/abs/1804.00874
  • 论文:Efficient Optimization for Rank-based Loss Functions
  • 作者:Pritish Mohapatra、Michal Rol´ınek、C.V. Jawahar、Vladimir Kolmogorov、M. Pawan Kumar
  • 论文链接:https://arxiv.org/abs/1604.08269

除了以上获奖论文,大会还公布了今年的 PAMI Longuet-Higgins Prize 与 PAMI Young Researcher Award。前者是颁发给至少 10 年前发布的论文,而后者是颁发给 7 年内获得博士学位且早期研究极为有潜力的研究人员。今年 Longuet-Higgins Prize 的得主为 CVPR 2008 年的论文《A discriminatively trained, multiscale, deformable part model》;PAMI Young Researcher Award 的得主为 Andreas Geiger 与何恺明。

Andreas Geiger 是德国蒂宾根大学计算机科学系的教授,自动驾驶视觉组成员。今年他们有四篇论文被 CVPR 2018 接收。而另一位获奖者何恺明大家都比较熟悉,他于 2016 年 8 月加入 FAIR(Facebook AI Research),担任研究科学家。此前,他曾以第一作者身份拿过两次 CVPR 最佳论文奖(2009 和 2016)。

最后值得一提的是,恰逢世界杯期间,CVPR 2018 提供世界杯直播。所以,参会者们是看着论文,累了就停下来看会儿世界杯吗?

视频内容

本文为机器之心报道,转载请联系本公众号获得授权。

本文分享自微信公众号 - 机器之心(almosthuman2014)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2018-06-20

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • ImageNet一作、李飞飞高徒邓嘉获最佳论文奖,ECCV 2020奖项全公布

    计算机视觉三大国际顶级会议之一的 ECCV 2020 已经召开。受疫情影响,原定于 8 月下旬在英国格拉斯哥举行的 ECCV 2020 会议转为线上举行,为期 ...

    机器之心
  • 想要入坑机器学习?这是MIT在读博士的AI心得

    选自mit.edu 作者:Tom Silver 机器之心编译 随着人工智能技术的火热,越来越多的年轻学者正准备投身其中,开启自己的研究之路。和所有其他学科一样,...

    机器之心
  • ICLR 2017匿名评审惹争议,盘点10篇被拒却值得一读的好论文(附大会第一天亮点)

    机器之心整理 参与:李亚洲、吴攀 当地时间 2017 年 4 月 24-26 日,第五届 ICLR 会议将在法国土伦举行。会议的第一天已经过去,在这一天的会议...

    机器之心
  • 如何高效读论文?剑桥CS教授亲授“三遍论”:论文最多读三遍,有的放矢,步步深入

    一方面,把握最前沿的研究动态,激发自身研究灵感。另一方面,不做好文献调研,自己的绝妙想法变成了重复造轮子,这种体验可不太妙。

    量子位
  • 张翼英:一点论文写作心得

    【导读】论文是硕士博士必修之关。我们转载一篇来自张翼英老师的论文心得文章! 本文来自张翼英科学网博客。 链接地址:http://blog.sciencenet....

    WZEARW
  • 华人学生斩获最佳论文、最佳Demo论文,ACL 2020获奖论文全部揭晓!

    刚刚,ACL 2020颁布了论文方面的奖项,共有1篇最佳论文,2篇最佳论文提名,1篇最佳主题论文,1篇最佳主题论文提名,1篇最佳demo论文,2篇最佳demo论...

    新智元
  • 斯坦福大学教授是如何阅读论文的?

    本文整理自斯坦福大学David R. Cheriton教授[1]的论文How to Read a Paper[2],笔者对其编译提炼,用于指导自己阅读论文,希望...

    陆道峰
  • 阿里达摩院员工业余打造“论文知识图谱”工具:极速搜索,完全可视化

    最近,Reddit上的一位网友便分享了这样一款论文可视化工具—— Connected Papers,8小时就收获260赞。

    量子位
  • 读论文的正确姿势是什么?

    但是有没有发现当你费劲巴拉的读到最后,发现所读的论文并不是你想要的。显然,这种不错过每一张表格,不错过每一个数字和每一个公式的“害怕错过”式阅读法并不是最有效的...

    AI科技评论
  • ICML2020论文汇总来啦,包括每篇论文的创新点介绍和点评

    今年的 ICML 大会已经改为在 2020 年 7 月 13 日至 18 日线上举行。ICML 是机器学习领域最重要的会议之一,因此在该会议上发表论文的研究者也...

    深度学习技术前沿公众号博主

扫码关注云+社区

领取腾讯云代金券