学界丨这届机器学习论文评比,搞怪无厘头我只服 Reddit

你知道吗?Reddit 上的 Machine Learning 小组上目前已经聚集了 85,613 位关注者了,而在 2016 年底的时候,@Mandrathax 发起了一个评选活动,名为「Reddit 机器学习小组的 2016 年度最佳论文大奖」!结果于今天火热出炉啦,且和 AI 科技评论一起来看看他们都是怎么评选出这些论文的吧。

@Mandrathax 在距离 2017 还有三天的时候慷慨激昂地提议:让我们来用鼠标投票,选出你心目中的年度最佳论文吧!

本次论文评选共有九大奖项,从比较正经的「年度最佳论文」到莫名奇妙的「最佳非机器学习论文」(黑人问号),AI 科技评论将在后面的奖项揭晓部分逐一为大家盘点。

奖项提名过程也很简单,只需要在帖子最后进行评论,并附上免费(手动微笑)的论文链接就可以了。「你可以为你的选择自由提供论据,言之成理即可,如果你就是论文的作者,那么谦虚一点地推荐也是可以的。」

不过,虽然是一个不太严肃的评选,但人家也是有自己节操的好伐!

比如说:

1. 每次只能在一条评论中提名一篇论文,如果有多篇心水文章,可以分多个评论来提名。 2. 提名一定要附上论文链接。比如说如果发布在 arxiv 上,需要附上 arxiv 的页面链接,而不是论文的 pdf 文件。而且,本着不让大家破产的原则,不欢迎贴上需要付费阅读的论文链接。 3. 只有正规的研究论文才能参加本次评选哦,什么书呀博客呀,这次就 sorry 啦,毕竟我们这个评选可是非常正 规的。

Reddit 上的用户可以直接在评论板块把认同的提名顶上去。经过 12 天激烈(?)的评选,有 100 位热心读者提出了他们心目中的最佳奖项。票选结果原定于 1 月 6-7 日揭晓,不过楼主可能去欧洲喂鸽子了,所以推迟到今天才出结果。

事不宜迟,赶紧和 AI 科技评论一起来奇文共赏吧!

年度最佳论文(Best Paper of the year)

评选标准:木有!只要这篇论文看完后,你觉得醍醐灌顶、内牛满面、脑海里只有「好赞」两个字,感觉以前的书都白读了的,都可以。

获奖论文:《Mastering the Game of Go with Deep Neural Networks and Tree Search》

链接:http://airesearch.com/wp-content/uploads/2016/01/deepmind-mastering-go.pdf

如果你看不懂英文,其实用膝盖想一下就知道是哪篇论文了,没错,就是谷歌 DeepMind 团队解析利用 DNN 与搜索树算法攻克围棋问题的详细解读。

当然,这一奖项的角逐非常激烈,还有 InfoGAN、Google 机器翻译系统等论文也是大热的候选者。

不过,因为提名者 @Bhananana 提交的是 pdf,还是被楼主小小地吐槽了一番。

最佳学生论文(Best student paper)

评选标准:虽然博士生带了个「生」字,不过这里的学生论文评选只局限于「还在上学」&「非博士生」,而且该学生必须是第一作者哦。

获奖论文:《Recurrent Batch Normalization》(递归批规范化)

链接:https://arxiv.org/abs/1603.09025

第一作者名为 Tim Cooijmans,在蒙特利尔大学机器学习实验室(MILA)学习,师从 Aaron Courville。他在论文中尝试重新将 LSTM 参数化,并证明这能有助于 RNN 的批规范化,使得 LSTM 的具有更快的收敛性及更好的通用性。

这篇论文是作者 @cooijmanstim 自己跑来自荐的,他说:

「这是第一篇呈现展示了 RNN 批规范化的论文,而且在这篇论文提出之前,这个想法也只是存在可能而已。(我是第一作者啦,当时只是一个低年级的研究生而已。)」

恭喜恭喜啪啪啪!还没读到博士就已经有了第一作者的论文,前途不可限量。

最佳学界论文(Best paper from academia)

评选标准:该论文的第一作者来自某个大学/国立研究所,比如法国的 INRIA(法国国家信息与自动化研究所)。

获奖论文:(空缺)

楼主特别声明,虽然这个类目没有论文被提名,但他在其它类目的提名中发现了一些符合条件的论文,比如雷锋网曾经报道过的 DeepMind 的识别唇语论文《Lip Reading Sentences in the Wild》;还有 MILA 的《Recurrent Batch Normalization》及《Professor Forcing: A New Algorithm for Training Recurrent Networks》等等。

最佳业界论文(Best paper from the industry)

评选标准:源于科技公司(或旗下基于私人资助的研究院,比如 openai)的优秀论文。

获奖论文:《WaveNet: A Generative Model for Raw Audio》

链接:https://arxiv.org/abs/1609.03499

没错又是 DeepMind,它们设计了一个原始音频波形深度生成模型 WaveNet,利用卷积神经网络所生成的语音听起来比现存的最优文本(语音系统)更为自然,将模拟生成的语音与人类声音的差异降低一半以上。而它们在语音合成领域取得的这一新进展计划将应用于谷歌产品中,这有期提升数百万用户的产品体验。雷锋网在此前论文发表之时也做过覆盖,详情可以点击《DeepMind 发布最新原始音频波形深度生成模型 WaveNet,将为 TTS 带来无数可能》查看。http://www.leiphone.com/news/201609/ErWGa8fs7yR1zn2L.html

如果说前面的评选还画风比较正常的话,那么接下来的奖项就有点让人看不懂了……

最佳理论论文(Best theoretical paper)

评选标准:数学、数学、数学……停不下来。我在数学的海洋里无法自拔!

获奖论文:《Operational calculus on programming spaces and generalized tensor networks》

链接:https://arxiv.org/abs/1610.07690

AI 科技评论简单看了一下这篇 27 页的论文,除了摘要、介绍及引用的三页外,其它 24 页都有各种公式,那画面太美我不敢看了。

最佳「非」深度学习论文(Best non Deep Learning paper)

评选标准:虽然深度学习这么火热,我们也应该稍微尊重一下高斯回归过程、随机森林还有核方法的感受吧!

获奖论文:《Fast and Provably Good Seedings for k-Means》

链接:http://papers.nips.cc/paper/6478-fast-and-provably-good-seedings-for-k-means

来来来,给 K-Means 聚类算法让个位好吧?

最佳被拒论文(Best rejected paper)

评选标准:论文并没有通过 peer review,如果能提供被拒绝的证据那就更好了(真是好残忍呐)

获奖论文:《Decoupled Neural Interfaces using Synthetic Gradients》

链接:https://arxiv.org/abs/1608.05343

@sour_losers(AI 科技评论按:看这名字起的……)自荐了这篇论文,他说,虽然自己没有收到拒绝信,但他根据发布时间推断认为他被 NIPS 拒绝了。

所以 AI 科技评论得到一个结论:起名字呀,还是得起个酷一点的,哦我指的是网名。

最佳未发表论文

评选标准:今年内还没发表出来的论文。楼主 PS:这个奖项可能会和上一个奖项有点重复,但先设着吧(雷锋网小编:这些奖设置得还真是随便啊)。

获奖论文:《Training recurrent networks to generate hypotheses about how the brain solves hard navigation problems》

链接:https://arxiv.org/abs/1609.09059

(这个类目因为只有这一个提名,且只获得了两票,因此就顺利成章地获奖了。楼主表示,这证实了此前的猜测,“我觉得确实设重了。”)

最佳论文标题

评选标准:只要比这个标题厉害就可以了:《A Spectral Approach to Ghost Detection》。

链接:http://www.oneweirdkerneltrick.com/spectral.pdf

鬼魂识别?我读书少你可别骗我。你还别说,这论文写得还有模有样的,除了建模、识别外,两位研究人员还设计了一个功能,可以自动抹除图片里的鬼魂。

作者 Daniel Maturana 是一个爱听雷鬼乐的虔诚天主教徒,而 David Fouhey 则是 CMU 的机器人研究中心的博士生,他曾经担任某个机构的联合大使,主要任务是探索瑜伽裤与普通长裤的区别(什么鬼)。

获奖论文:《Learning to learn by gradient descent by gradient descent》

链接:https://arxiv.org/abs/1606.04474

翻译过来就是《通过梯度下降学习如何学习梯度下降》,嗯……我服。

文章由 Google DeepMind、牛津大学及加拿大先进研究院的八位研究者联合完成。虽然名字起得像绕口令,但简介写得还是比较清晰的,文章主要将算法的调优视为一个能用机器学习完成的过程,综合了 LSTM、通用性及人工设计的对抗网络进行训练,并将其应用于相似的全新任务中。

有意思的是,这个奖项赢得了最多用户的关注,竞争也最为激烈。其它的论文名字还包括:

《星体平面的映射》(这是走错星球大战片场了吗?) 《YOLO9000:更高更快更强》(这是在办奥运会吗?) 《Mother Fugger:采用本地色块挖掘历史手稿》(总是有种奇怪的联想)

以上便是 2016 年 Reddit 的 Machine Learning 小组评选的「最佳」九大论文,当然,其中主要还是以戏谑及有趣做为评选主题,雷锋网想,不知道中文版本的论文评选是否有哪些特别的论文能入选呢?欢迎向 AI 科技 评论推荐你心目中符合这几大奖项的论文吧!

最后附上原帖页面及评选结果页面:

r/MachineLearning's 2016 Best Paper Award:

https://www.reddit.com/r/MachineLearning/comments/5kxfkb/d_rmachinelearnings_2016_best_paper_award/

Results from the Best Paper Awards:

https://www.reddit.com/r/MachineLearning/comments/5n53k7/d_results_from_the_best_paper_awards/

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-01-12

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏专知

百度最新中文词法分析工具--LAC

【导读】自然语言处理(NLP),是使用计算机来完成以自然语言为载体的非结构化信息为对象的各类信息处理任务,比如文本的理解、分类、摘要、信息抽取、知识问答、生成等...

1013
来自专栏AI科技评论

干货 | Siri 语音识别的小心机:你在哪里,就能更准确地识别那附近的地址

AI 科技评论按:这篇文章来自苹果机器学习日记(Apple Machine Learning Journal)。与其他科技巨头人工智能实验室博客的论文解读、技术...

542
来自专栏大数据挖掘DT机器学习

【趣味】数据挖掘(6)——借水浒传故事,释决策树思路

决策树 (又称判定树,Decision Tree)是硕、博士生数据挖掘课程要点和难点,教学实践表明,这一章需要数学基础知识多,难得有趣。明知是难点,偏向难...

3315
来自专栏AI科技评论

6512名学者聚首CVPR 2018,斯坦福伯克利获最佳论文奖,何恺明获青年研究奖

第 31 届计算机视觉和模式识别大会(Conference on Computer Vision and Pattern Recognition, CVPR)在...

973
来自专栏新智元

【揭秘】美团如何用机器学习优化推荐系统算法

本文介绍了美团网推荐系统的构建和优化过程中的一些做法,包括数据层、触发层、融合过滤层和排序层五个层次,采用了HBase、Hive、storm、Spark和机器学...

3296
来自专栏人工智能头条

Bandit算法与推荐系统

1782
来自专栏AI科技评论

丘成桐得意门生顾险峰:机器学习解决不了的医学图像问题,如何用几何方法来攻克?

AI 科技评论按:在 2017 图像计算与数字医学国际研讨会(ISICDM)上,顾险峰教授应邀出席并做了主题为“医学图像中的几何方法”的学术报告,介绍了基于他们...

3555
来自专栏美团技术团队

美团技术团队博客:推荐算法实践

前言 推荐系统并不是新鲜的事物,在很久之前就存在,但是推荐系统真正进入人们的视野,并且作为一个重要的模块存在于各个互联网公司,还是近几年的事情。 随着互联网的深...

37611
来自专栏CSDN技术头条

Bandit算法与推荐系统

推荐系统里面有两个经典问题:EE和冷启动。前者涉及到平衡准确和多样,后者涉及到产品算法运营等一系列。Bandit算法是一种简单的在线学习算法,常常用于尝试解决这...

2899
来自专栏AI研习社

现在的AI算法真的模拟了人脑吗?

我是生物本科,认知神经科学研究生在读,课余时间比较喜欢编程和机器学习,正在自学,了解的稍微多一些。我试着从我的角度来说下我看到的深度学习和神经科学的联系。 深度...

3193

扫描关注云+社区