学界丨这届机器学习论文评比,搞怪无厘头我只服 Reddit

你知道吗?Reddit 上的 Machine Learning 小组上目前已经聚集了 85,613 位关注者了,而在 2016 年底的时候,@Mandrathax 发起了一个评选活动,名为「Reddit 机器学习小组的 2016 年度最佳论文大奖」!结果于今天火热出炉啦,且和 AI 科技评论一起来看看他们都是怎么评选出这些论文的吧。

@Mandrathax 在距离 2017 还有三天的时候慷慨激昂地提议:让我们来用鼠标投票,选出你心目中的年度最佳论文吧!

本次论文评选共有九大奖项,从比较正经的「年度最佳论文」到莫名奇妙的「最佳非机器学习论文」(黑人问号),AI 科技评论将在后面的奖项揭晓部分逐一为大家盘点。

奖项提名过程也很简单,只需要在帖子最后进行评论,并附上免费(手动微笑)的论文链接就可以了。「你可以为你的选择自由提供论据,言之成理即可,如果你就是论文的作者,那么谦虚一点地推荐也是可以的。」

不过,虽然是一个不太严肃的评选,但人家也是有自己节操的好伐!

比如说:

1. 每次只能在一条评论中提名一篇论文,如果有多篇心水文章,可以分多个评论来提名。 2. 提名一定要附上论文链接。比如说如果发布在 arxiv 上,需要附上 arxiv 的页面链接,而不是论文的 pdf 文件。而且,本着不让大家破产的原则,不欢迎贴上需要付费阅读的论文链接。 3. 只有正规的研究论文才能参加本次评选哦,什么书呀博客呀,这次就 sorry 啦,毕竟我们这个评选可是非常正 规的。

Reddit 上的用户可以直接在评论板块把认同的提名顶上去。经过 12 天激烈(?)的评选,有 100 位热心读者提出了他们心目中的最佳奖项。票选结果原定于 1 月 6-7 日揭晓,不过楼主可能去欧洲喂鸽子了,所以推迟到今天才出结果。

事不宜迟,赶紧和 AI 科技评论一起来奇文共赏吧!

年度最佳论文(Best Paper of the year)

评选标准:木有!只要这篇论文看完后,你觉得醍醐灌顶、内牛满面、脑海里只有「好赞」两个字,感觉以前的书都白读了的,都可以。

获奖论文:《Mastering the Game of Go with Deep Neural Networks and Tree Search》

链接:http://airesearch.com/wp-content/uploads/2016/01/deepmind-mastering-go.pdf

如果你看不懂英文,其实用膝盖想一下就知道是哪篇论文了,没错,就是谷歌 DeepMind 团队解析利用 DNN 与搜索树算法攻克围棋问题的详细解读。

当然,这一奖项的角逐非常激烈,还有 InfoGAN、Google 机器翻译系统等论文也是大热的候选者。

不过,因为提名者 @Bhananana 提交的是 pdf,还是被楼主小小地吐槽了一番。

最佳学生论文(Best student paper)

评选标准:虽然博士生带了个「生」字,不过这里的学生论文评选只局限于「还在上学」&「非博士生」,而且该学生必须是第一作者哦。

获奖论文:《Recurrent Batch Normalization》(递归批规范化)

链接:https://arxiv.org/abs/1603.09025

第一作者名为 Tim Cooijmans,在蒙特利尔大学机器学习实验室(MILA)学习,师从 Aaron Courville。他在论文中尝试重新将 LSTM 参数化,并证明这能有助于 RNN 的批规范化,使得 LSTM 的具有更快的收敛性及更好的通用性。

这篇论文是作者 @cooijmanstim 自己跑来自荐的,他说:

「这是第一篇呈现展示了 RNN 批规范化的论文,而且在这篇论文提出之前,这个想法也只是存在可能而已。(我是第一作者啦,当时只是一个低年级的研究生而已。)」

恭喜恭喜啪啪啪!还没读到博士就已经有了第一作者的论文,前途不可限量。

最佳学界论文(Best paper from academia)

评选标准:该论文的第一作者来自某个大学/国立研究所,比如法国的 INRIA(法国国家信息与自动化研究所)。

获奖论文:(空缺)

楼主特别声明,虽然这个类目没有论文被提名,但他在其它类目的提名中发现了一些符合条件的论文,比如雷锋网曾经报道过的 DeepMind 的识别唇语论文《Lip Reading Sentences in the Wild》;还有 MILA 的《Recurrent Batch Normalization》及《Professor Forcing: A New Algorithm for Training Recurrent Networks》等等。

最佳业界论文(Best paper from the industry)

评选标准:源于科技公司(或旗下基于私人资助的研究院,比如 openai)的优秀论文。

获奖论文:《WaveNet: A Generative Model for Raw Audio》

链接:https://arxiv.org/abs/1609.03499

没错又是 DeepMind,它们设计了一个原始音频波形深度生成模型 WaveNet,利用卷积神经网络所生成的语音听起来比现存的最优文本(语音系统)更为自然,将模拟生成的语音与人类声音的差异降低一半以上。而它们在语音合成领域取得的这一新进展计划将应用于谷歌产品中,这有期提升数百万用户的产品体验。雷锋网在此前论文发表之时也做过覆盖,详情可以点击《DeepMind 发布最新原始音频波形深度生成模型 WaveNet,将为 TTS 带来无数可能》查看。http://www.leiphone.com/news/201609/ErWGa8fs7yR1zn2L.html

如果说前面的评选还画风比较正常的话,那么接下来的奖项就有点让人看不懂了……

最佳理论论文(Best theoretical paper)

评选标准:数学、数学、数学……停不下来。我在数学的海洋里无法自拔!

获奖论文:《Operational calculus on programming spaces and generalized tensor networks》

链接:https://arxiv.org/abs/1610.07690

AI 科技评论简单看了一下这篇 27 页的论文,除了摘要、介绍及引用的三页外,其它 24 页都有各种公式,那画面太美我不敢看了。

最佳「非」深度学习论文(Best non Deep Learning paper)

评选标准:虽然深度学习这么火热,我们也应该稍微尊重一下高斯回归过程、随机森林还有核方法的感受吧!

获奖论文:《Fast and Provably Good Seedings for k-Means》

链接:http://papers.nips.cc/paper/6478-fast-and-provably-good-seedings-for-k-means

来来来,给 K-Means 聚类算法让个位好吧?

最佳被拒论文(Best rejected paper)

评选标准:论文并没有通过 peer review,如果能提供被拒绝的证据那就更好了(真是好残忍呐)

获奖论文:《Decoupled Neural Interfaces using Synthetic Gradients》

链接:https://arxiv.org/abs/1608.05343

@sour_losers(AI 科技评论按:看这名字起的……)自荐了这篇论文,他说,虽然自己没有收到拒绝信,但他根据发布时间推断认为他被 NIPS 拒绝了。

所以 AI 科技评论得到一个结论:起名字呀,还是得起个酷一点的,哦我指的是网名。

最佳未发表论文

评选标准:今年内还没发表出来的论文。楼主 PS:这个奖项可能会和上一个奖项有点重复,但先设着吧(雷锋网小编:这些奖设置得还真是随便啊)。

获奖论文:《Training recurrent networks to generate hypotheses about how the brain solves hard navigation problems》

链接:https://arxiv.org/abs/1609.09059

(这个类目因为只有这一个提名,且只获得了两票,因此就顺利成章地获奖了。楼主表示,这证实了此前的猜测,“我觉得确实设重了。”)

最佳论文标题

评选标准:只要比这个标题厉害就可以了:《A Spectral Approach to Ghost Detection》。

链接:http://www.oneweirdkerneltrick.com/spectral.pdf

鬼魂识别?我读书少你可别骗我。你还别说,这论文写得还有模有样的,除了建模、识别外,两位研究人员还设计了一个功能,可以自动抹除图片里的鬼魂。

作者 Daniel Maturana 是一个爱听雷鬼乐的虔诚天主教徒,而 David Fouhey 则是 CMU 的机器人研究中心的博士生,他曾经担任某个机构的联合大使,主要任务是探索瑜伽裤与普通长裤的区别(什么鬼)。

获奖论文:《Learning to learn by gradient descent by gradient descent》

链接:https://arxiv.org/abs/1606.04474

翻译过来就是《通过梯度下降学习如何学习梯度下降》,嗯……我服。

文章由 Google DeepMind、牛津大学及加拿大先进研究院的八位研究者联合完成。虽然名字起得像绕口令,但简介写得还是比较清晰的,文章主要将算法的调优视为一个能用机器学习完成的过程,综合了 LSTM、通用性及人工设计的对抗网络进行训练,并将其应用于相似的全新任务中。

有意思的是,这个奖项赢得了最多用户的关注,竞争也最为激烈。其它的论文名字还包括:

《星体平面的映射》(这是走错星球大战片场了吗?) 《YOLO9000:更高更快更强》(这是在办奥运会吗?) 《Mother Fugger:采用本地色块挖掘历史手稿》(总是有种奇怪的联想)

以上便是 2016 年 Reddit 的 Machine Learning 小组评选的「最佳」九大论文,当然,其中主要还是以戏谑及有趣做为评选主题,雷锋网想,不知道中文版本的论文评选是否有哪些特别的论文能入选呢?欢迎向 AI 科技 评论推荐你心目中符合这几大奖项的论文吧!

最后附上原帖页面及评选结果页面:

r/MachineLearning's 2016 Best Paper Award:

https://www.reddit.com/r/MachineLearning/comments/5kxfkb/d_rmachinelearnings_2016_best_paper_award/

Results from the Best Paper Awards:

https://www.reddit.com/r/MachineLearning/comments/5n53k7/d_results_from_the_best_paper_awards/

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-01-12

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏腾讯移动品质中心TMQ的专栏

是和VR抢蛋糕,还是配合VR分蛋糕? ——浅谈三维重建和应用

一、背景概要 作为一名智能产品测试工程师,不可避免的需要接触到最新最热的技术产品,目前,VR就是这样一种技术,“知己知彼百战不殆”,想要做好VR产品的测试工作,...

2045
来自专栏AI研习社

如何看待「机器学习不需要数学,很多算法封装好了,调个包就行」这种说法?

不抖机灵,想从接触过机器学习学术圈但已投身工业界的角度来回答。 我认为:大部分机器学习从业者不需要过度的把时间精力放在数学上,而该用于熟悉不同算法的应用场景和掌...

35010
来自专栏CreateAMind

语义学习-通用类人智能的切入点-实现路径v0.03+视频+解释

《思想本质》一书通过语言和认知对人的思想认知等进行了分析,前部分有一个核心观点是(李德毅院士也提过):语言是思想认知体系的语义索引,语言只是符号,语言表达的含义...

922
来自专栏量子位

谷歌AI绘制大脑神经地图,开源代码帮你理清混乱的脑回路

1074
来自专栏量子位

EMNLP最佳论文公布,“让发明自己语言的AI说人话”上榜

李林 编译整理 量子位 报道 | 公众号 QbitAI ? 自然语言处理领域的学术会议EMNLP今天评出了四篇最佳论文:最佳长论文两篇、最佳短论文和最佳资源论文...

3376
来自专栏机器之心

专访 | 先声教育CTO秦龙:有限的算法与无限的新意

35211
来自专栏PPV课数据科学社区

如何看待「机器学习不需要数学,很多算法封装好了,调个包就行」这种说法?

编者按:这个问题放到更大的范围,也同样适用于回答“学习数据挖掘是否需要学好数学?”。作者从实践的几个方面给出了自己的理解,小遍认为还是比较好的回答了这个问题。 ...

3625
来自专栏Petrichor的专栏

视觉三维建模

  既能准确计算进出人数,又能有效过滤掉干扰物体(如推车、行李箱、人员徘徊、拥挤及躯体重叠、人员经过未进入等,另外用户也需要有特殊应用,比如身高低于1.2米的儿...

602
来自专栏上善若水

CG006读《什么是计算机图形学》

计算机图形学(computer Graphics) 是研究计算机世界中图形的学问。

992
来自专栏新智元

【遗失的秘钥】贝叶斯定理:人工智能的进化论?

贝叶斯定理正在变得如此流行,以至于在CBS剧《生活大爆炸》中也出现了它的身影。纽约时报说,贝叶斯统计学家“遍布一切,从物理学到癌症研究,从生态学到心理学”。物理...

2948

扫码关注云+社区