前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ICLR 2021最佳论文放榜!清华宋飏等3位一作华人学生获最佳论文奖!

ICLR 2021最佳论文放榜!清华宋飏等3位一作华人学生获最佳论文奖!

作者头像
新智元
发布2021-04-14 14:57:20
9560
发布2021-04-14 14:57:20
举报
文章被收录于专栏:新智元新智元


新智元报道

来源:iclr

编辑:LRS、yaxin

【新智元导读】ICLR2021 今天在官网公布了最佳论文奖!一作华人学生3篇论文获得了最佳论文奖,2篇来自Deepmind,还有谷歌、斯坦福大学等机构的研究人员都取得了佳绩。

刚刚,ICLR2021 公布了最佳论文奖!

今年,共有8篇最佳论文胜出,其中3篇是华人学生一作,2篇是来自Deepmind,还有谷歌、斯坦福大学等机构的研究人员都取得了佳绩。

ICLR 是深度学习领域的顶级会议,今年的 ICLR 2021大会从5月4日到5月8日在奥地利维也纳举行。

本届ICLR共收到了2997篇论文投稿,相比去年的2594篇论文投稿,增加了15.5%。

其中860篇论文被接收,接受率为28.7%,这些论文有53篇Oral,114篇Spotlight以及693 Poster。

8篇论文获最佳论文!华人一作占3席

最佳论文1:超复数乘法的参数量只需要1/n

标题:Beyond Fully-Connected Layers with Quaternions: Parameterization of Hypercomplex Multiplications with 1/n Parameters

《比全连接更强:超复数乘法的参数量只需要1/n》

作者:Aston Zhang, Yi Tay, Shuai Zhang, Alvin Chan, Anh Tuan Luu, Siu Cheung Hui, Jie Fu

作者机构:谷歌研究院,苏黎世联邦理工大学,南洋理工大学,Mila

论文地址:https://openreview.net/pdf?id=rcQdycl0zyk

表示学习在超复数空间的表示学习的有效性已经得到了验证。基于四元数(quaternions)的全连接层(四元数就是四维空间的超复数)的汉密尔顿乘积已经取代了传统的实数矩阵乘法,并且在性能不变的情况下,可学习的参数量降低为原来的1/4,在多种应用场景得到了验证。

但是一个限制就是只有几个固定的维度可以使用,如四维、八维或十六维,为了使用超复数乘法,智能牺牲模型的灵活性。

基于这个目的,这篇文章提出了一种参数化超复数乘法,使模型能够与数据无关地学习乘法规则。这个模型不仅包括汉密尔顿乘积,通过设置任意1/n的可学习参数,也使模型更灵活。

使用LSTM和Transformer模型对自然语言推理、机器翻译、文本风格迁移的实验上,证明了所提出方法的架构灵活性和有效性。

本文的第一作者是Aston Zhang,是亚马逊Web Services的高级科学家,伊利诺伊大学香槟分校获得计算机科学博士学位。

出版《动手学深度学习》,面向中文读者的「能运行、可讨论」的深度学习教科书,被全球 40 个国家 175 所大学用于教学,由四位主要作者和GitHub贡献者共同编著。

最佳论文2 :重新思考可微分NAS方法中的架构选择

标题:Rethinking Architecture Selection in Differentiable NAS

作者:Ruochen Wang, Minhao Cheng, Xiangning Chen, Xiaocheng Tang, and Cho-Jui Hsieh

作者机构:加州伯克利大学

论文地址:https://openreview.net/forum?id=PKubaeJkw3

自谷歌2016年提出了基于强化学习神经网络架构搜索(NAS)一来,一些关于NAS方法泉涌而出,其中最有影响力的工作就是DARTS。

NAS以其搜索效率高、搜索过程简单等优点成为当前最流行的神经网络结构搜索方法之一。

它借鉴了早期谷歌提出的weight sharing的搜索思想,将搜索架构建模为矩阵α使用可微分的策略对矩阵α与网络参数进行交替优化,在分类和其他任务上都取得了很好的效果。

来自加州大学洛杉矶分校的研究人员发现DARTS有一些显而易见的缺点,他们重新审视了DARTS方法中的Architecture Selection,发现很多论文中都在重点讨论搜索中超图网络的优化问题,很少有学者去关注架构问题。

论文中作者重新评估了几个可微分的 NAS 方法与所提出的架构选择,发现架构参数α中的权重参数在很多情况下并不能衡量对应候选操作对于supernet的重要性。

在预训练DARTS supernet中随机选择了三条边,作者分别计算了其中不同候选操作对应的α值与离散化精度。

作者按照对搜索网络的贡献度来进行候选操作的选择,并进一步提出了一种alternative perturbation-based的架构选择方法,这一方法在DARTS、SDARTS、SDAS等一些NAS模型上取得了性能的提升。

论文一作Ruochen Wang来自洛杉矶加州大学(UCLA),他目前是UCLA亨利·萨穆埃利工程与应用科学学院研究生研究助理。

Ruochen Wang在2015年获得密歇根大学计算机科学、统计学学士学位,2020年获得密歇根大学和洛杉矶加州大学的计算机科学硕士学位。

最佳论文3:基于随机微分方程的分数生成式建模

标题:Score-Based Generative Modeling through Stochastic Differential Equations

作者:Yang Song, Jascha Sohl-Dickstein, Diederik P Kingma, Abhishek Kumar, Stefano Ermon, and Ben Poole

作者机构:斯坦福大学,谷歌

论文地址:https://openreview.net/pdf?id=PxTIG12RRHS

从数据中生成噪声是很简单的,从噪声中找到数据则需要生成式的模型。这篇文章提出随机查分方程(SDE),通过逐渐注入噪声,把一个复杂的数据分布转换到一个已知的先验分布。另外一个对称的逆时SDE通过把噪声逐渐去处,把先验分布转换回数据分布。

至关重要的是,逆时SDE仅依赖于扰动数据分布的时间相关梯度场(场也叫做分数)。

由于利用了基于分数的生成式模型的优势,这篇论文提出的模型能够准确地使用神经网络来估计分数,并且使用几个SDE求解器来生成样例。

论文中提出的框架封装了之前基于分数的生成式模型,扩散概率模型,兼容新的采样过程,并且具有不同的建模能力。

除此之外,一个预测校正器框架被用来纠正离散化的逆时SDE在演化过程中的误差。

一个等价的神经ODE能够从与SDE相同的分布中采样数据,额外计算精确的概率,提升采样效率。

本文提供了一个新的途径使用基于分数的模型解决时序反向问题,在基于类别的生成、图像修复、着色实验中得到了验证。

由于多种架构上的改进,本文在CIFA-10数据集上的非条件图像生成实验上达到SOTA,评分9.89,FID 2.20,2.99bits/dim的概率,在1024*1024图像生成上,首次阐述了如何基于分数生成模型高保真地生成图像。

论文一作宋飏本科毕业于清华大学物理系,现为斯坦福大学计算机系博士生,他的导师是斯坦福大学计算机科学学院Stefano Ermon教授。

目前致力于研究具有灵活的模型结构,稳定的训练方式,优异的样本质量,以及能够自由控制的新型生成式模型。

他表示自己对生成模型的各种应用很感兴趣,比如解决逆问题,以及减少机器学习系统的安全漏洞。

还有5篇论文获得最佳论文奖,它们分别是:

论文4

标题:Complex Query Answering with Neural Link Predictors

作者:Erik Arakelyan, Daniel Daza, Pasquale Minervini, and Michael Cochez

作者机构:UCL 人工智能中心、阿姆斯特丹大学、Discovery Lab

论文地址:https://openreview.net/forum?id=Mos9F9kDwkz

论文5

标题:EigenGame: PCA as a Nash Equilibrium

作者:ZIan Gemp, Brian McWilliams, Claire Vernade, and Thore Graepel

作者机构:Deepmind

论文地址:https://openreview.net/forum?id=NzTU59SYbNq

论文6

标题:Learning Mesh-Based Simulation with Graph Networks

作者:Tobias Pfaff, Meire Fortunato, Alvaro Sanchez-Gonzalez, and Peter Battaglia

作者机构:Deepmind

论文地址:https://openreview.net/forum?id=roNqYL0_XP

论文7

标题:Neural Synthesis of Binaural Speech From Mono Audio

作者:Alexander Richard, Dejan Markovic, Israel D. Gebru, Steven Krenn, Gladstone Alexander Butler, Fernando Torre, and Yaser Sheikh

作者机构:Facebook Reality Labs

论文地址:https://openreview.net/forum?id=uAX8q61EVRu

论文8

标题:Optimal Rates for Averaged Stochastic Gradient Descent under Neural Tangent Kernel Regime

作者:Atsushi Nitanda, and Taiji Suzuki

作者机构:东京大学,国立研究开发法人理化学研究所(Riken),科学技术振兴机构

论文地址:https://openreview.net/pdf?id=PULSD5qI2N1

参考资料:

https://iclr-conf.medium.com/announcing-iclr-2021-outstanding-paper-awards-9ae0514734ab

https://zhuanlan.zhihu.com/p/344538995

https://twitter.com/davencheung/status/1377584920453857286?s=21

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-04-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 【新智元导读】ICLR2021 今天在官网公布了最佳论文奖!一作华人学生3篇论文获得了最佳论文奖,2篇来自Deepmind,还有谷歌、斯坦福大学等机构的研究人员都取得了佳绩。
相关产品与服务
机器翻译
机器翻译(Tencent Machine Translation,TMT)结合了神经机器翻译和统计机器翻译的优点,从大规模双语语料库自动学习翻译知识,实现从源语言文本到目标语言文本的自动翻译,目前可支持十余种语言的互译。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档