机器之心年度盘点:2017年人工智能领域度备受关注的科研成果

机器之心原创

参与:李泽南、李亚洲、黄小天

2016 年,人工智能行业经历了语音识别准确率飙升、神经机器翻译重大突破、图像风格迁移的兴盛。2017 年,人们对于 AI 领域的期待变得更高了,不过在这一年里,各家科研机构和大学仍为我们带来了很多激动人心的研究成果。本文将试图对 2017 年人工智能领域实现的重要科研成果进行盘点。

来自谷歌大脑负责人 Jeff Dean 的 Keynote:人们在 arXiv 上提交的机器学习论文数量正遵循摩尔定律增长。人工智能技术的发展速度是否也有这么快?

AlphaGo:从“零”开始

今天,每当聊起人工智能,我们就不得不提 AlphaGo,这款由谷歌旗下研究型公司 DeepMind 开发的著名围棋程序在 2017 年再次掀起了 AI 的热潮。从年初借「Master」名义在网络围棋平台上迎战各路人类围棋高手,到 5 月与柯洁等人的「人机最后一战」,AlphaGo 的故事在 10 月份以又一篇 Nature 论文「AphaGo Zero」再次展示了计算机在围棋上强大的能力;紧随而至的 AlphaZero 则将这种强大泛化到了其他领域中。

机器之心也亲历了 AlphaGo 事件的始末。在 5 月份人机大战时,除了现场报道之外,我们还邀请了阿尔伯塔大学教授、计算机围棋顶级专家 Martin Müller 以及《深度强化学习综述》论文作者李玉喜博士,共同观看了比赛直播。Müller 教授所带领的团队在博弈树搜索和规划的蒙特卡洛方法、大规模并行搜索和组合博弈论方面颇有建树。实际上,参与了大师级围棋程序 AlphaGo 的设计研发的 David Silver 和黄士杰(Aja Huang)(他们分别是第一篇 DeepMind 的 AlphaGo 相关 Nature 论文的第一作者和第二作者)都曾师从于他。

在击败柯洁等中国围棋名手之后,随着 DeepMind 宣布人机大战计划结束,AlphaGo 的故事似乎已经结束。然而在 10 月 18 日,DeepMind 的又一篇 Nature论文《Mastering the game of Go without human knowledge》再次让全世界感到震惊。在论文中,DeepMind 首次展示了全新版本的 AlphaGo Zero —— 无需任何人类知识标注。在历时三天,数百万盘的自我对抗之后,它可以轻松地以 100 比 0 的成绩击败李世乭版本的 AlphaGo。DeepMind 创始人哈萨比斯表示:「Zero 是迄今为止最强大,最具效率,最有通用性的 AlphaGo 版本——我们将见证这项技术很快应用到其他领域当中。」

没等多久,哈萨比斯的宣言就初步实现了,在 12 月 NIPS 2017 大会举行期间,DeepMind 又放出了一篇论文《Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm》,其中描述了使用 AlphaGo Zero 技术,并可泛化至其他领域任务的新一代算法 AlphaZero。新的算法可以从零开始,通过自我对弈强化学习在多种任务上达到超越人类水平。据称,它在经过不到 24 小时的训练后,可以在国际象棋和日本将棋上击败目前业内顶尖的计算机程序(这些程序早已超越人类世界冠军水平),也可以轻松击败训练 3 天时间的 AlphaGo Zero。

12 月 11 日,DeepMind 发布了围棋教学程序,其中收录了约 6000 个近代围棋史上的主要开局变化,所有变化都附带了 AlphaGo 评估的胜率。DeepMind 希望以此推动人类围棋水平的进步,在公布之后,AlphaGo 的重要研究成员黄士杰博士宣布离开项目,转向 DeepMind 旗下的其他方向研究,此举宣告了 AlphaGo 在围棋方向上的研究告于段落。

德州扑克击败人类:DeepStack 与 Libratus

德州扑克这种复杂的扑克游戏已经被人工智能(AI)掌握。而且这个游戏还不是被征服了一次——两个不同的研究团队所开发的 bot 都在一对一德州扑克比赛上完成了击败人类的壮举。今年1月份,卡耐基梅隆大学(CMU)开发的名为 Libratus 的人工智能程序在宾夕法尼亚州匹兹堡的 Rivers 赌场为期20天的一对一德扑比赛中击败了4 名人类职业玩家 Jason Les、Dong Kim、Daniel McAulay 和 Jimmy Chou。而在另一边,加拿大阿尔伯塔大学、捷克布拉格查理大学和捷克理工大学的研究者联合发表的论文《Deepstack: Expert-level artificial intelligence in heads-up no-limit poker》出现在了著名学术期刊《Science》上,该研究团队展示了人工智能已经在无限制扑克(No-Limit Poker)游戏上达到了专家级的水平。

与信息完全公开的围棋不同,德州扑克是「不完美信息(imperfect information)」类博弈,能反映真实生活中我们面临问题时的场景,诸如拍卖以及业务谈判,因而在德州扑克上的技术突破也意味着人工智能技术的发展速度正在加快。

有趣的是,在解决同样的问题时,DeepStack 与 Libratus 采取的方式不尽相同:DeepStack 采用的是深度学习针对大量牌局变化进行训练(超过 1100 万局),从而获得在实际比赛时对获胜概率拥有「直觉」;而 Libratus 采用的是基于纳什均衡的博弈求解技术。

自归一化神经网络

《Self-Normalizing Neural Networks》是今年 6 月份在 arXiv 上公开的一篇机器学习论文,后被 NIPS 2017 大会接收,它的作者为奥地利林兹大学的 Günter Klambauer、 Thomas Unterthiner 与 Andreas Mayr。这篇论文在提交后引起了圈内极大的关注,它提出了缩放指数型线性单元(SELU)而引进了自归一化属性,该单元主要使用一个函数 g 映射前后两层神经网络的均值和方差以达到归一化的效果。值得注意的是,该论文作者 Sepp Hochreiter 曾与 Jürgen Schmidhuber 一同提出了 LSTM,之前的 ELU 同样来自于他们组。回到论文本身,这篇 NIPS 论文虽然只有 9 页正文,却有着如同下图一样的 93 页证明附录:

不知当时审阅这篇论文的学者心情如何。无论如何,它提出的方法可以让你稍稍修改 ELU 激活就能让平均单位激活趋向于零均值/单位方差(如果网络足够深的话)。如果它最终是正确的方向,批处理规范就会变得过时,而模型训练速度将会大大加快。至少在论文中的实验里,它击败了 BN + ReLU 的准确性。

论文链接:https://arxiv.org/abs/1706.02515

GAN 及其各种变体

2016 年,Yann LeCun 曾称 GAN 是深度学习领域最重要的突破之一,而我们在2016 年也看到了 GAN 变体衍生的苗头,比如 Energy-based GAN 和最小二乘网络 GAN。到了 2017 年初,我们就看到了各种 GAN 变体如雨后春笋般出现,其中一篇名为 WGAN 的论文在年后不久引发了业界极大的讨论,有人称之「令人拍案叫绝」。

从 2014 年 Ian Goodfellow 提出 GAN 以来,它就存在着训练困难、生成器和判别器的 loss 无法指示训练进程、生成样本缺乏多样性等问题。虽然后续的变体都在尝试解决这些问题,但效果不尽人意。而 Wasserstein GAN 成功做到了以下几点:

彻底解决 GAN 训练不稳定的问题,不再需要小心平衡生成器和判别器的训练程度

基本解决了 collapse mode 的问题,确保了生成样本的多样性

训练过程中终于有一个像交叉熵、准确率这样的数值来指示训练的进程,这个数值越小代表 GAN 训练得越好,代表生成器产生的图像质量越高(如题图所示)

以上一切好处不需要精心设计的网络架构,最简单的多层全连接网络就可以做到

除了 WGAN,也有其他多种 GAN 的变体于 2017 年出现,我们以资源列表的形式为大家列出:

然而到了年底,谷歌大脑的一篇论文对目前火热的GAN研究敲响警钟。在一篇名为《Are GANs Created Equal?A Large-Scale Study》的论文中, 研究人员对 Wasserstein GAN 等 GAN 目前的六种变体进行了详尽的测试,得出了“没有找到任何证据证明任何一个算法优于原版算法”的结论(参见:六种改进均未超越原版:谷歌新研究对 GAN 现状提出质疑)。或许我们应该更多地把目光转向到新架构上了。

深度神经网络碰上语音合成

近年来,随着深度神经网络的应用,计算机理解自然语音的能力有了彻底革新,例如深度神经网络在语音识别、机器翻译中的应用。但是,使用计算机生成语音(语音合成(speech synthesis)或文本转语音(TTS))仍在很大程度上基于所谓的拼接 TTS(concatenative TTS)。而这种传统的方法所合成语音的自然度、舒适度都有很大的缺陷。深度神经网络,能否像促进语音识别的发展一样推进语音合成的进步,也成为了人工智能领域研究的课题之一。

2016 年,DeepMind 提出了 WaveNet,在业内引起了极大的关注。WaveNet 可以直接生成原始音频波形,能够在文本转语音和常规的音频生成上得到出色的结果。但就实际应用而言,它存在的一个问题就是计算量很大,没办法直接用到产品上面。因此,这个研究课题还有非常大的提升空间。

2017 年,我们见证了深度学习语音合成方法从实验室走向产品。从机器之心关注到的内容,我们简单梳理出了如下研究:

谷歌:Tacotron、WaveNet(应用于谷歌助手)

百度:Deep Voice、Deep Voice 2(NIPS 2017)、Deep Voice 3(提交 ICLR 2018)

苹果:hybrid unit selection TTS system (应用于Siri)

本文来自企鹅号 - 机器之心媒体

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏自然语言处理

程序员眼中的统计学4

程序员眼中的统计学系列是作者学习笔记整理而得。随着科学技术的发展和机器智能的普及,统计学在机器智能中的作用越来越重要。正如吴军先生在《数学之美》一书中阐述的,基...

9130
来自专栏AI科技大本营的专栏

刚刚,DeepMind被IJCAI授予杰出成就奖,因为他家把AlphaGo Zero做成了暖心的新垣结衣?

啥都别说,先看图好不好 首先,恭喜DeepMind荣获大奖。 其次,获奖评语中,一定不会少的是对他家新品AlphaGo Zero的大加赞叹。 这货3天走完人类的...

401140
来自专栏CSDN技术头条

AlphaGo的大数据等技术分析

AlphaGo的分析 最近我仔细看了下AlphaGo在《自然》杂志上发表的文章,写一些分析给大家分享。 AlphaGo这个系统主要由几个部分组成: 1. 走棋网...

19880
来自专栏新智元

【技术探讨】拿 AlphaGo 做投资会怎样?

在AlphaGo战胜人类围棋顶尖高手之际,本文简单探讨了投资AlphaGo系统模块与训练数据以及可行性。并将其实现逻辑与郝伯特·西蒙过程理性算法比较。文章最后讨...

38670
来自专栏机器之心

DeepMind AlphaGo Zero引爆业内,创造者现身Reddit问答

317100
来自专栏新智元

AlphaGo对战李世石谁能赢?两万字长文深挖围棋AI技术(一)

? 李理,出门问问NLP工程师 编者按:李世石与Google Deepmind AlphaGo对战在即,围棋界和人工智能界对结果各有预测,但对于程序员来说,...

41450
来自专栏机器学习人工学weekly

机器学习人工学weekly-2018/2/4

注意下面很多链接需要科学上网,无奈国情如此 1. Google相关的消息: 1.1 TF发布1.5正式版,跟之前提到的RC差不多,主要是增加了eager和lit...

351100
来自专栏专知

【观点】AlphaGo Zero再掀波澜,看各位AI业界大拿如何点评

【导读】Google DeepMind在Nature上发表最新论文AlphaGo Zero,介绍了迄今最强最新的版本AlphaGo Zero,不使用人类先验知识...

30340
来自专栏机器学习和数学

[有意思的数学]极小极大问题与博弈论入门

为啥要提到这个问题呢,是因为最近一直在做生成对抗网络(GAN)的工作,GAN的灵感来源于博弈论(也叫对策论,竞赛论)中的零和博弈,而原始GAN的优化目标又是一个...

66670
来自专栏量子位

人类太多余?且慢,先听AI科学家详解AlphaGo Zero的伟大与局限

夏乙 李根 发自 凹非寺 量子位 报道 | 公众号 QbitAI “人类太多余了。” 面对无师自通碾压一切前辈的AlphaGo Zero,柯洁说出了这样一句话...

39140

扫码关注云+社区

领取腾讯云代金券