ICLR 2018接收论文公布—“GANs 之父”Goodfellow四篇论文被接受为Poster Papers。

ICLR,全称为「International Conference on Learning Representations」(国际学习表征会议),2013 年才刚刚成立了第一届。这个一年一度的会议虽然今年2017年办到第六届,已经被学术研究者们广泛认可,被认为「深度学习的顶级会议」。今年共接收到了 900多篇有效论文,同比增加一倍去年 11 月,评审结果出炉,ICLR 2018共有23篇论文入围Oral Papers,314篇论文获评Poster Papers,90篇论文被选为Workshop Papers,508篇论文被拒,63篇论文撤回。“GANs 之父”Goodfellow有四篇论文被接受为Poster Papers。

论文接收列表:

https://openreview.net/group?id=ICLR.cc/2018/Conference

接受论文为:

1. Many Paths to Equilibrium: GANs Do Not Need to Decrease a Divergence At Every Step

William Fedus, Mihaela Rosca, Balaji Lakshminarayanan, Andrew M. Dai, Shakir Mohamed, Ian Goodfellow

论文链接:https://openreview.net/pdf?id=ByQpn1ZA-

2. Ensemble Adversarial Training: Attacks and Defenses

Florian Tramèr, Alexey Kurakin, Nicolas Papernot, Ian Goodfellow, Dan Boneh, Patrick McDaniel

论文链接:https://openreview.net/pdf?id=rkZvSe-RZ

3. Thermometer Encoding: One Hot Way To Resist Adversarial Examples

Jacob Buckman, Aurko Roy, Colin Raffel, Ian Goodfellow

论文链接:https://openreview.net/pdf?id=S18Su--CW

4. MaskGAN: Better Text Generation via Filling in the _______

William Fedus, Ian Goodfellow, Andrew M. Dai

论文链接:https://openreview.net/pdf?id=ByOExmWAb

以下是评分排名较前的一些论文:

专知此前报道的论文 Certifiable Distributional Robustness with Principled Adversarial Training(利用分布鲁棒优化方法应对对抗样本干扰), 到目前为止仍然获得了最高的评分(9;9;9),在Oral Papers中,详细请查看:

【ICLR2018 最高分论文】利用分布鲁棒优化方法应对对抗样本干扰

【摘要】由于神经网络容易受到对抗样本的干扰,因此研究人员提出了许多启发式的攻击和防御机制。我们采用分布鲁棒优化的观点,保证对抗输入干扰下网络的性能。通过考虑拉格朗日惩罚公式在Wasserstein ball的源数据分布上的干扰,我们提供了一个训练过程,增强了训练数据在最坏情况干扰下的模型参数更新。对于光滑损失,我们的方法在保证中等程度的鲁棒性的同时,具有很小的计算或统计成本。此外,我们的统计保证我们的整体损失具有鲁棒性。我们达到或超越了监督和强化学习任务中的启发式方法。

原文发布于微信公众号 - 专知(Quan_Zhuanzhi)

原文发表时间:2018-01-31

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人工智能头条

漫谈词向量之基于Softmax与Sampling的方法

71050
来自专栏Echo is learning

因子分析

16260
来自专栏用户3246163的专栏

2.2 线形回归

dependent = explained variable 已解释的 independent = explanatory variable 说明变量

25320
来自专栏PPV课数据科学社区

最新机器学习必备十大入门算法!都在这里了

我们向初学者介绍十大机器学习(ML)算法,并附上数字和示例,方便理解。 简介 “哈佛商业评论”的一篇文章(https://hbr.org/2012/10/da...

37560
来自专栏YoungGy

SVD分解及其应用

SVD起源 对角化概述 SVD SVD应用 图像压缩2 数据去噪 LSA 推荐系统 注意 参考资料 ? SVD可谓线性代数的登峰造极者。 其本质就是找到将任...

84760
来自专栏小小挖掘机

时间序列预测模型-ARIMA原理及Python实现!

再介绍本篇的内容之前,我们先来看一下本文用到的数据。本文用到的中国银行股票数据下载:http://pan.baidu.com/s/1gfxRFbH。

78420
来自专栏CreateAMind

火热的生成对抗网络(GAN),你究竟好在哪里

自2014年Ian Goodfellow提出生成对抗网络(GAN)的概念后,生成对抗网络变成为了学术界的一个火热的研究热点,Yann LeCun更是称之为”过去...

14520
来自专栏机器学习算法工程师

机器学习损失函数、L1-L2正则化的前世今生

前言: 我们学习一个算法总是要有个指标或者多个指标来衡量一下算的好不好,不同的机器学习问题就有了不同的努力目标,今天我们就来聊一聊回归意义下的损...

56970
来自专栏量化投资与机器学习

【原创精品】随机森林在因子选择上的应用基于Matlab

随机森林对多元公线性不敏感,结果对缺失数据和非平衡的数据比较稳健,可以很好地预测多达几千个解释变量的作用。

34170
来自专栏CreateAMind

大话逻辑回归

本文目的是以大白话的方式介绍逻辑回归。我们先简要以公式的方式回顾什么是逻辑回归,如何训练。然后,我们用大白话的方式重新解释一次逻辑回归。最后,我们介绍逻辑回归和...

12810

扫码关注云+社区

领取腾讯云代金券