腾讯AI Lab多篇论文入选CVPR、ACL及ICML等顶级会议(附论文下载)

腾讯AI Lab微信公众号今日发布了其第一条消息,宣布腾讯AI Lab多篇论文入选即将开幕的CVPR、ACL及ICML等顶级会议。 在AI科技大本营公众号会话中输入“腾讯”,打包下载腾讯AI Lab入选CVPR、ACL及ICML的论文。

腾讯AI实验室授权转载

1. CVPR

IEEE Conference on Computer Vision and Pattern Recognition IEEE国际计算机视觉与模式识别会议 7月21日 - 26日 | 美国夏威夷

CVPR是近十年来计算机视觉领域全球最有影响力、内容最全面的顶级学术会议,由全球最大的非营利性专业技术学会IEEE(电气和电子工程师协会)主办。2017谷歌学术指标(Google Scholar)按论文引用率排名, CVPR位列计算机视觉领域榜首。今年CVPR审核了2620篇文章,最终收录783篇,录取率29%,口头报告录取率仅2.65%。

腾讯AI Lab计算机视觉总监刘威博士介绍到,“CVPR的口头报告一般是当年最前沿的研究课题,在学界和工业界都影响很大,每年都集齐如斯坦福大学和谷歌等全球最知名高校和科技公司。”

腾讯AI Lab六篇论文入选CVPR

论文一:Real Time Neural Style Transfer for Videos

本文用深度前向卷积神经网络探索视频艺术风格的快速迁移,提出了一种全新两帧协同训练机制,能保持视频时域一致性并消除闪烁跳动瑕疵,确保视频风格迁移实时、高质、高效完成。

* 此论文后附详细解析

论文二:WSISA: Making Survival Prediction from Whole Slide Histopathological Images

论文首次提出一种全尺寸、无标注、基于病理图片的病人生存有效预测方法WSISA,在肺癌和脑癌两类癌症的三个不同数据库上性能均超出基于小块图像方法,有力支持大数据时代的精准个性化医疗。

论文三:SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning

针对图像描述生成任务,SCA-CNN基于卷积网络的多层特征来动态生成文本描述,进而建模文本生成过程中空间及通道上的注意力模型。

论文四:Deep Self-Taught Learning for Weakly Supervised Object Localization

本文提出依靠检测器自身不断改进训练样本质量,不断增强检测器性能的一种全新方法,破解弱监督目标检测问题中训练样本质量低的瓶颈。

论文五:Diverse Image Annotation

本文提出了一种新的自动图像标注目标,即用少量多样性标签表达尽量多的图像信息,该目标充分利用标签之间的语义关系,使得自动标注结果与人类标注更加接近。

论文六:Exploiting Symmetry and/or Manhattan Properties for 3D Object Structure Estimation from Single and Multiple Images

基于曼哈顿结构与对称信息,文中提出了单张图像三维重建及多张图像Structure from Motion三维重建的新方法。

CVPR重点论文解析

CVPR选中的六篇文章,我们将重点解析《视频的实时神经风格迁移》(Real-Time Neural Style Transfer for Videos)[1]这篇颇具创新的文章。

在过去很长一段时间内,业界流行的图像滤镜通常只是对全局颜色属性的调整,比如亮度、色相、饱和度等。在2016年的CVPR,Gatys等人[2]首创性地提出将深度神经网络应用于图像的艺术风格迁移,使得输入图像能够模仿如梵高的星空、莫奈的日出印象等任何类型的艺术风格,效果惊艳。

Gatys等人工作虽然取得了非常好的效果,但是缺点是基于优化,非常耗时;到2016 ECCV时,Johnson等人[3]提出了使用深度前向神经网络替代优化过程,实现了实时的图像风格迁移,修图工具Prisma随之风靡一时。但直接将图像风格迁移的方法应用到视频上,却会使得原本连贯的视频内容在不同帧中转化为不一致的风格,造成视频的闪烁跳动,严重影响观感体验。为了解决闪烁问题,Ruder等人[4]加入了对时域一致性的考虑,提出了一种基于优化的视频艺术滤镜方法,但速度极慢远远达不到实时。

腾讯AI Lab科学家使用深度前向卷积神经网络,探索视频艺术风格快速迁移的可能,提出了一种全新的两帧协同训练机制,保持了视频时域一致性,消除了闪烁跳动瑕疵,同时保证视频风格迁移能够实时完成,兼顾了视频风格转换的高质量与高效率。

视频艺术滤镜模型如下图所示。通过损失网络(Loss Network)计算连续两个输入视频帧之间的损失来训练风格变换网络(Stylizing Network)。其中空间损失(Spatial Loss)同时描述了图像的内容损失以及风格损失;时间损失(Temporal Loss)描述了两个风格变换后的视频帧之间的时间一致性。

文章相关论文

[1] Haozhi Huang, Hao Wang, Wenhan Luo, Lin Ma, Wenhao Jiang, Xiaolong Zhu, Zhifeng Li, and Wei Liu. Real-Time Neural Style Transfer for Videos. CVPR, 2017. [2] L. A. Gatys, A. S. Ecker, and M. Bethge. Image style transfer using convolutional neural networks. CVPR, 2016. [3] J. Johnson, A. Alahi, and L. Fei-Fei. Perceptual losses for real-time style transfer and super-resolution. ECCV, 2016. [4] M. Ruder, A. Dosovitskiy, and T. Brox. Artistic style transfer for videos. German Conference on Pattern Recognition, 2016.

2. ACL

Meetings of the Association for Computational Linguistics 国际计算机语言协会年会 7月30日 - 8月4日|加拿大温哥华

ACL是计算语言学里最重要的国际会议,今年是第55届。会议涵盖生物医学、认知建模与心理语言学、交互式对话系统、机器翻译等各个领域,今年有194 篇长论文、107 篇短论文、21 个软件演示及 21 篇主题演讲。在2017谷歌学术指标(Google Scholar)按论文引用率排名, ACL是计算机语言学和自然语言处理领域最高级别国际学术年会。

腾讯AI Lab副主任俞栋认为,「自然语言的理解、表达、生成和转换一直是自然语言处理的核心问题。近年来有很多新的解决思路和方法。今年的ACL涉及自然语言处理的各方面,尤其在语义解析、语义角色标注、基于语义和语法的自然语言生成、机器翻译和问答系统方向上都有一些有趣的工作。」

腾讯AI Lab主任张潼介绍到,「ACL早期利用语法和规则分析自然语言,90年代后,随着以LDC(Linguistic Data Consortium)为代表的自然语言数据集建立扩充,统计自然语言方法在计算语言学里作用越来越大并成为主流。2000年后随着互联网高速发展及以自然语言为核心的人机交互方式兴起,自然语言研究被赋予极高应用价值。」

腾讯AI Lab三篇文章入选ACL

论文一:Modeling Source Syntax for Neural Machine Translation

本文提出将句法树转化为句法标签序列的轻量级方法,有效将源端句法信息引入神经网络翻译系统,被证实能显著提高翻译效果。

论文二:Chunk-Based Bi-Scale Decoder for Neural Machine Translation

本文引入一个额外组块神经网络层,从组块到词的层次生成译文,帮助实现神经网络翻译系统短语级别的建模,实验表明该方法在多种语言上都能显著提高翻译效果。* 本文作者亦致谢前任职机构

论文三:Deep Pyramid Convolutional Neural Networks for Text Categorization

文章提出了一种能有效表达文本长距离关系的复杂度词粒度CNN。本文研究了如何加深词粒度CNN对文本进行全局表达,并找到了一种简单网络结构,通过增加网络深度提升准确度,但不过多增加计算量。实验表明15层的DPCNN在六个情感和主题分类任务上达到了目前最佳结果。

3. ICML

International Conference on Machine Learning 国际机器学习大会 8月6日 - 11日|澳大利亚悉尼

机器学习是人工智能的核心技术,而ICML是机器学习最重要的两个会议之一(另一个是NIPS)。ICML源于1980年在卡内基梅隆大学举办的机器学习研讨会,现由国际机器学习学会(IMLS)主办。2017谷歌学术指标以「机器学习」关键词排名,ICML位列第一。

腾讯AI Lab主任张潼博士介绍到,「很多经典论文和算法,如CRF,都是在ICML上首次提出的,这个会议涉及机器学习相关的所有研究,包括近年非常热门的深度学习、优化算法、统计模型和图模型等。在早期,ICML更注重实验和应用,而NIPS更注重模型和算法,但近年来两个会议有些趋同。」

腾讯AI Lab四篇文章入选ICML

论文一:Scaling Up Sparse Support Vector Machines by Simultaneous Feature and Sample Reduction

本文提出了第一个能在模型训练开始前,同时检测和去除稀疏支持向量机中不活跃样本和特征的筛选算法,并从理论和实验中证明其能不损失任何精度地把模型训练效率提升数个量级。

论文二:GSOS: Gauss-Seidel Operator Splitting Algorithm for Multi-Term Nonsmooth Convex Composite Optimization

本文提出了求解多块非光滑复合凸优化问题的算子分裂新算法,该算法采用Gauss-Seidel迭代以及算子分裂的技巧处理不可分的非光滑正则项,并以实验证实了该算法的有效性。

论文三:Efficient Distributed Learning with Sparsity

本文提出了一个高维大数据中能更有效学习稀疏线性模型的分布式算法。在单个机器训练样本足够多时,该算法只需一轮通信就能学习出统计最优误差模型;即使单个机器样本不足,学习统计最优误差模型的通信代价只随机器数量对数曲线上升,而不依赖于其他条件数。

论文四:Projection-free Distributed Online Learning in Networks

本文提出了去中心化的分布式在线条件梯度算法。该算法将条件梯度的免投影特性推广到分布式在线场景,解决了传统算法需要复杂的投影操作问题,能高效处理去中心化的流式数据。


腾讯AI Lab于2016年四月成立,专注于机器学习、计算机视觉、语音识别和自然语言理解四个领域「基础研究」,及内容、游戏、社交和平台工具型四大AI「应用探索」。腾讯AI Lab主任及第一负责人是机器学习和大数据专家张潼博士(详情可点链接),副主任及西雅图实验室负责人是语音识别及深度学习专家俞栋博士。目前团队有50余位AI科学家及200多位应用工程师。

原文发布于微信公众号 - AI科技大本营(rgznai100)

原文发表时间:2017-07-19

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器之心

学界 | 结合生成式与判别式方法,Petuum新研究助力医疗诊断

36712
来自专栏量子位

用DensePose,教照片里的人学跳舞,系群体鬼畜 | ECCV 2018

Facebook团队,把负责感知的多人姿势识别模型DensePose,与负责生成的深度生成网络结合起来。

1693
来自专栏量子位

手把手带你入坑迁移学习(by 当过黑客的CTO大叔)

原作 Slav Ivanov Root 编译自 Slav寄几的博客 量子位 出品 | 公众号 QbitAI Slav Ivanov是Post Planer(提高...

3446
来自专栏达观数据

分享 | 一文详解2017年深度学习NLP重大进展与趋势

作者通过本文概述了 2017 年深度学习技术在 NLP 领域带来的进步,以及未来的发展趋势,并与大家分享了这一年中作者最喜欢的研究。2017 年是 NLP 领域...

3617
来自专栏新智元

ICLR 2019评审结果出炉!一文看全平均8分论文

至于录取率,目前还没有官方公布。从ICLR 2018的情况来看,平均分达到6.57可以被接收,Top 33%的论文可以被接收为poster或talk。但今年的投...

1443
来自专栏机器之心

ICLR 2019评审Top 200论文+热词,不在Top 200也可以计算名次

ICLR 2019 将于明年 5 月 6 日-9 日在美国新奥尔良举行,今年 9 月 27 日下午 18 时,大会论文提交截止。据统计,ICLR 2019 共收...

1111
来自专栏深度学习自然语言处理

中心极限定理通俗介绍

中心极限定理是统计学中比较重要的一个定理。 本文将通过实际模拟数据的形式,形象地展示中心极限定理是什么,是如何发挥作用的。

1002
来自专栏大数据文摘

学界 | CVPR 2018颁布五大奖项,何恺明获年轻学者奖

1184
来自专栏人工智能

迁移学习 - 机器学习的下一个前沿

近年来,我们在训练深度神经网络从大量的标记数据(图片、句子、标签预测等)中获取非常精确的输入输出映射关系上取得了巨大的进展。

8716
来自专栏机器学习和数学

[机智的机器在学习] 卷积神经网络入门教程(1)

机智的机器在学习,就像机智的你现在在学习一样,当你在看这篇文章的时候,你就是在学习,学习的材料(数据)就是这篇文章。学习的结果就是你了解了卷积神经网络是个什么鬼...

3926

扫码关注云+社区

领取腾讯云代金券