前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >热门 | Google Brain前员工深度盘点2017人工智能和深度学习各大动态

热门 | Google Brain前员工深度盘点2017人工智能和深度学习各大动态

作者头像
AI科技大本营
发布2018-04-27 11:55:20
8620
发布2018-04-27 11:55:20
举报

翻译 | AI科技大本营

参与 | shawn

编辑 | Donna

2017年是人工智能井喷的一年。Google Brain团队前成员Denny Britz在自己的博客WILDML上对过去一年人工智能和深度学习领域的大事件进行了细致的梳理,并对2018年某些领域的发展进行了预测。

标志性事件

强化学习在玩游戏上打败人类

2017年AI界风头最劲的可能要数强化学习程序AlphaGo,过去一年它打败了数位世界围棋冠军。由于围棋的搜索空间大的漫无天际,人们曾认为机器学习要想攻克这项游戏还得几年。结果这么快就被打脸了!

第一版AlphaGo是利用人类专家的训练数据开发出来的,之后又通过自我博弈和蒙特卡罗树搜索(MCTS) 得到进一步改进。AlphaGo Zero则更进一步,它可以在不使用人类训练数据的前提下从零开始学习围棋,并轻松打败第一版AlphaGo。

AlphaGo Zero使用的是之前发表的论文《Thinking Fast and Slow with Deep Learning and Tree Search》中提出的方法。临近年底,我们又看到了使用AlphaGo Zero算法的通用型棋类人工智能程序 :AlphaZero,它不仅会围棋,而且还会下国际象棋和日本将棋。

有趣的是,这些程序所用的策略让经验丰富的围棋高手感到惊讶,棋手们也会学习AlphaGo并相应地调整自己的下棋风格。为了让学习过程更容易,DeepMind还发布了AlphaGo Teach工具。

除了围棋之外,AI还在德州扑克领域取得重大进展。卡耐基梅隆大学(CMU)研究人员开发的系统Libratus 在历时20天的“一对一无限注德州扑克”(No-Limit Texas Hold'em)比赛中打败了顶尖德州扑克选手。早些时候,由查尔斯大学,捷克技术大学和艾伯塔大学的研究人员开发的系统DeepStack首次打败专业扑克选手。

需要的注意是,这两个系统针对的是双人扑克游戏,比多人扑克游戏容易很多。不过,在2018年我们很可能会看到化学习攻克的下一个领域,似乎是更加复杂的多人游戏,例如多人扑克。

同时,DeepMind正在积极研究星际争霸2,并发布了相关的研究环境。OpenAI展示了它在1v1 Dota 2上取得的初步成果,计划在不久的未来与人类玩家在5v5游戏中对决。

进化算法重新崛起

在监督学习中,使用反向传播算法的基于梯度的方法一直表现优秀。这一点短期之内可能不会有什么改变。但是在强化学习中,进化策略(ES)似乎在重新崛起。

由于强化学习的数据往往不是iid(独立同分布)的,因此错误信号更为稀疏;而且由于需要进行探索,不依赖于梯度的算法可以表现得很好。另外,进化算法可以线性扩展到数千台机器,实现非常快的平行训练。它们不需要昂贵的GPU,可以在成百上千个廉价的CPU上进行训练。

去年早些时候,OpenAI的研究人员证明了遗传算法可以实现与标准的强化学习算法(如Deep Q-Learning)相媲美的性能(相关文章:https://blog.openai.com/evolution-strategies/)。临近年终时,Uber的一个团队发布了一篇博文和五篇研究论文,进一步证明了遗传算法和新颖性搜索(novelty research)的潜力。他们的算法可以玩困难的雅达利游戏,而且使用的是非常简单的遗传算法,没用任何梯度信息。

2018年我们很可能会看到更多这方面的成果。

WaveNets,CNN和注意机制

谷歌的Tacotron 2文本转语音系统基于WaveNet,其语音质量非常出色。WaveNet是一种自动回归模型也被应用在谷歌助手(Google Assistant)中并且在,过去一年改步很大进。WaveNet之前也被应用于机器翻译,训练速度是循环架构(recurrent architectures)的数倍。

在机器学习的各种子领域中,放弃昂贵且(在训练上)耗时的循环架构似乎已成为一个大趋势。在论文《Attention is All you Need》中,研究人员完全放弃了循环网络和卷积网络,只使用了一种更加复杂的注意力机制,用了很小的训练成本实现了目前最优秀的结果。

深度学习框架的一年

如果非要用一句话概况2017年,那一定是“框架之年”。凭借着PyTorch,Facebook在过去一年中风生水起。由于PyTorch的动态图构建与Chainer 相类似,因此它在自然语言处理领域的研究人员中大受欢迎因为,他们经常需要处理在诸如Tensorflow的静态图形框架中难以declare的动态和循环结构。

TensorFlow在2017年动作频频。二月份的时候发布了配备有稳定、兼容旧系的API的Tensorflow 1.0,现在已经升级到了版本1.4.1。除了主要框架,Tensorflow还发布了几个Tensorflow伴随库(companion libraries),包括用于处理动态计算图的Tensorflow Fold ,用于数据输入管道的Tensorflow Transform。Tensorflow团队还发布了一种新的eager execution模式,它的功能与PyTorch的动态计算图类似。

除Google和Facebook之外,还有很多公司也加入了开发机器学习框架的行列(营长注:由于微信平台无法插入第三方链接,以下框架可点击文末“阅读原文”查看):

  • 苹果公司发布CoreML移动机器学习库。
  • Uber的一个团队发布了深度概率编程语言Pyro。
  • 亚马逊(Amazon)发布Gluon——MXNet上的一个更高级的API。
  • Uber公布了其内部机器学习基础设施平台——米开朗基罗(Michelangelo )的详细信息。

由于框架的数量越来越多,Facebook和微软联合发布了ONNX开放格式,以便跨框架共享深度学习模式。 例如你您可以在一个框架中训你您的模型,然后在另一个框架中将其应用于生产。

除了通用的深度学习框架,过去一年还发布了很多强化学习框架(营长注:由于微信平台无法插入第三方链接,以下框架可点击文末“阅读原文”查看):

  • OpenAI Roboschoo:一款用于机器人仿真的开源软件。
  • OpenAI Baseline:强化学习算法的高质量实现
  • Tensorflow Agents:包含用TensorFlow来训练RL系统的优化架构。
  • Unity ML Agents:可以让研究人员和开发者用Unity Editor创建游戏和模拟系统,并使用强化学习算法进行训练。
  • Nervana Coach:可以让研究人员使用最先进的强化学习算法进行实验。
  • FacebookEL:游戏研究平台。
  • DeepMind Pycola:一个可定制的gridworld游戏引擎。
  • Geek.ai MAgen:一个专门用于多代理强化学习的研究平台。

为了让深度学习更易普及,还有一些面向web的框架,例如谷歌的deeplearn.js和MIL WebDNN执行框架。2017年还有一个非常流行的框架跟我们告别了,那就是Theano。在Theano的一份声明中,开发商宣告Theano 1.0将成为Theano的最后一个版本。

学习资源

随着深度学习和强化学习越来越受欢迎,2017年越来越多的讲座、训练营和活动在录制后被放到网上。以下是我推荐的一些资源(营长注:由于微信平台无法插入第三方链接,所以以下课程可点击文末“阅读原文”查看原文):

  • 由OpenAI和加州大学伯克利分校联合主办的Deep RL Bootcamp,讲授关于强化学习的基础知识以及最新研究。
  • 斯坦福大学2017年春季版《视觉识别卷积神经网络》课程。
  • 斯坦福大学2017年冬季版《自然语言处理与深度学习》课程。
  • 斯坦福大学《深度学习理论》课程。
  • 新的Coursera深度学习专项课程。
  • 蒙特利尔大学深度学习和强化学习暑期学校视频。
  • 加州大学伯克利分校2017年秋季深度强化学习课程。
  • TensorFlow开发者大会上关于深度学习基础和相关TensorFlow API的内容

几大学术会议延续了在网上发布会议内容的新传统。如果您想跟上最尖端的研究,不妨仔细观看 NIPS 2017、ICLR 2017 或 EMNLP 2017的录像资料。

研究人员也开始在arXiv上发布易于理解的教程和调查论文。以下是2017年我最推荐的资源(营长注:由于微信平台无法插入第三方链接,以下论文可点击文末“阅读原文”查看):

  • Deep Reinforcement Learning: An Overview(《深度强化学习:概览》)
  • A Brief Introduction to Machine Learning for Engineers(《工程师机器学习入门》)
  • Neural Machine Translation(《神经机器翻译》)
  • Neural Machine Translation and Sequence-to-sequence Models: A Tutorial(《神经机器翻译和序列到序列模型:教程》)

人工智能在不同领域的运用

医学

2017年,很多人声称深度学习技术可以用来解决医学问题,甚至胜过人类专家。这其中有很多炒作成分,没有医学背景的人很难认识到真正的突破。如果您想全面地了解这个论题,我推你您阅读Luke Oakden-Rayner的《人类医生的终结》( The End of Human Doctors )系列博文营长在之前已经相继发布了这三篇论文的解读:《机器学习最终是否会代替人类医生》《关于皮肤患者的AI解决方式》《Google如何用CNN检查乳腺癌?》。下面我将简要地列举一些进:

去年,斯坦福大学的一个团队公布了关于其深度学习算法的细节,这个算法在确诊皮肤癌上与皮肤科医生不相上下。斯坦福大学的另一个团队开发了一个可以依据心电图确诊心律失常的模型,其准确度比心脏病专家还好。

当然也有一些风波。DeepMind与国家医疗服务体系(NHS)之间的合作问题重重。美国国家卫生研究院(NIH)向研究人员发布了一个胸部X光片数据集,但是研究人员经过仔细审查后发现,这个数据集并不适合用来训练诊断型AI模型。

艺术与GAN(生成式对抗网络)

图像、音乐、绘图和视频的生成式模型在去年也受到了很多关注。NIPS 2017还首次围绕机器学习在创意与设计工作室的应用举办了研讨会(https://nips2017creativity.github.io/)。

谷歌的QuickDraw是最受流行的应用之一,它可以使用神经网络来识别涂鸦。你甚至可以使用发布的数据集训练机器,让它帮你完成绘画。

生成式对抗网络(GAN)去年取得了重大进展。比如:CycleGAN、DiscoGAN、StarGAN等新模型在人脸生成方面实现了令人印象深刻的结果。一般来说,GAN很难生成逼真的高分辨率图像,但pix2pixHD用优秀的结果证明了我们即将解决这一问题。未来GAN会成为人们的画笔吗

自动驾驶汽车

Uber、Lyft、Waymo和特斯拉(Tesla)都是自动驾驶领域的大牌。年初的时候,Uber的自动驾驶汽车由于软件错误在旧金山闯了几次红灯。之后,Uber公开了关于其内部使用的汽车可视化平台的一些细节。12月,Uber的自动驾驶汽车项目完成了200万英里的实际行驶路程。

Waymo四月份的时候首次进行了上路测试,之后又在亚利桑那的凤凰城进行了无人类驾驶员的测试。他们还公布了测试和模拟技术的细节。

从Waymo的模拟系统(上图)可以看出其汽车导航得到了改进

Lyft表示他们正在建立自己的无人车硬件和软件体系,并且正在波士顿进行首次上路测试。特斯拉的Autopilot没有什么大更新。还有一个“新的”入局者,库克证实苹果公司正在研发应用于自动驾驶汽车的软件,他们的研究人员在arXiv上发表了一笔关于物体识别的论文。

一些别的:有趣的研究项目

我们在去年看到了很多有趣的项目和成果,在这里我无法一一列举。但是我会列举几个特别吸引人的项目(营长注:由于微信平台无法插入第三方链接,以下文章可点击文末“阅读原文”查看):

  • 用深度学习实现背景移除
  • 用深度学习创造动漫角色
  • 用神经网络给黑白照片着色
  • 神经网络玩《马里奥赛车》
  • 玩实时《马里奥赛车 64》的AI程
  • 利用深度学习识别赝品
  • Edges to Cats(将简笔画转为照片)

更多研究方向(营长注:由于微信平台无法插入第三方链接,以下文章可点击文末“阅读原文”查看)

  • 监督情绪神经网络——一个可以学习情绪表征的系统,用于预测亚马逊购物评论中的下一个字符。
  • 学习沟通——研究如何让代理生成自己的语言。
  • 学习索引结构——用神经网络实现比优化缓存后的B-Tree索引快70%的速度,并在多个现实数据集中节省数量级的内存。
  • Attention is All You Need
  • Mask R-CNN——用于对象实例分割的通用框架
  • 用于图像去噪、超分辨率和修补的Deep Image Prior

数据集

用于监督学习的神经网络通常需要使用大量的数据,因此开放的数据集可以给研究人员带来很大的帮助。

以下是去年公布的几个优秀数据集(营长注:由于微信平台无法插入第三方链接,以下数据集可点击文末“阅读原文”查看):

  • Youtube Bounding Boxes
  • Google QuickDraw Data
  • DeepMind Open Source Datasets
  • Google Speech Commands Dataset
  • Atomic Visual Actions
  • Several updates to the Open Images data set
  • Nsynth dataset of annotated musical notes
  • Quora Question Pairs

深度学习,重复性和炼金术

过去一年中,研究人员对学术论文结果的重复性表示了担忧。深度学习模型往往依赖于大量的超参数,为了能够发表,这些超参数必须经过优化才能获得足够好的结果。这种优化成本非常高,只有Google和Facebook等大公司才能负担得起。

除此之外,研究人员有时会不公开代码,忘记在论文中补充重要的细节,或者使用不太相同的评估程序又,是者通过在相同的split上重复优化超参数过度拟合数据集。这些因素使得可复现性成为了一个大问题。在《Reinforcement Learning That Matters》一文中,研究人员证明,不同代码库的相同算法得出的结果大不相同,而且方差很大。

在《Are GANs Created Equal? A Large-Scale Study》一文中,研究人员证明了:经过优化的GAN使用昂贵的超参数可以打败一些看上去更好的复杂方法。同样,在《On the State of the Art of Evaluation in Neural Language Models》一文中,研究人员证明了:简单的LSTN架构经过正确的正则化和优化后,其表现比很多新提出的模型更好。

在NIPS 2017大会上,Test of Time 论文大奖获得者阿里·拉希米(Ali Rahimi)称现在的深度学习技术就像“炼金术”,他呼吁研究人员应采用更加严谨的实验方法。不过Yann LeCun认为阿里·拉希米在攻击自己,隔天进行了反击。

加拿大和中国正全面发展AI

随着美国不断收紧移民政策,美国公司开始在海外设立分公司,加拿大成为了他们的主要目的地。谷歌在多伦多成立了一家新公司,DeepMind在加拿大的埃德蒙顿市也成立了一个AI实验室,Facebook AI Researc也正在向蒙特利尔扩张。

中国是另一个倍受关注的目的地。中国拥有大量的资金,实力雄厚的人才库以及可轻易获取的政府数据,它与美国在人工智在的发展和生产部署方面展了开正面竞争。Google日前宣布即将在北京成立一个新实验室。

硬件大战:英伟达、英特尔、谷歌、特斯拉

现代深度学习技术需要使用昂贵的GPU来训练最先进的模型。到目前为止,NVIDIA一直是最大的赢家。今年,它发布了新的旗舰GPU——Titan V。顺便一提,它还是金色的。

但是竞争正在加剧。Google正在其云平台上使用自家的TPU,英特尔的Nervana推出了一系列新芯片,甚至特斯拉也公开表示它正在开发自己的AI硬件。在中国,专门从事比特币挖掘的硬件制造商也希望进入用于人工智能的GPU制造领域。

炒作和失败

炒的越热,责任就越大。流媒体的报道与研究实验室或生产体系中实际发生的事情几乎从不相符。IBM的Watson成为了过度营销的典型案例,它完全没有实现与其营销相符的成果。去年, Watson开始变成众矢之的,因为它在医疗保健领域一再失败。

去年炒的最热的可能是 “Facebook的研究人员关了闭发明自己语言的AI系统”。这个标题与实际发生的事情差之千里。事实上,只是研究人员停止了一个结果不好的常规实验而已。

但是炒作的不只是媒体,研究人员也开始用不能反映实际实验结果的标题和摘要吸引眼球,比如这篇自然语言生成论文以及这篇机器学习论文

高调招聘和离职

以机器学习MOOC闻名业界的 Coursera的联合创始人吴恩达(Andrew Ng)在去年成为了媒体报道的焦点。吴恩达本来在百度领导AI团队,去年三月份他离开百度,筹集了1.5亿美元的基金,成立了一个专注于制造业的新公司landing.ai。

Gary Marcus辞去了Uber人工智能实验室主任的职务。Facebook挖走了Siri自然语言理解部门的负责人。多位著名的研究人员离开了OpenAI,开创了一家新的机器人公司。

科学家从学术界不断流失到业界的趋势仍在继续。大学实验室抱怨,他们无法提供行业巨头给出的薪水。

初创企业投资和收购

就像前年一样,AI初创企业的生态系统正在蓬勃发展,去年我们看到了几次高调的收购:

  • Microsoft收购深度学习初创公司MAluuba
  • 谷歌云(Google Cloud)收购全球最大数据科学社区Kaggle
  • 软银(Softbank)收购机器人制造商Boston Dynamics(以不使用机器学习而闻名
  • Facebook收购AI助手初创公司Ozlo
  • 三星(Samsung)收购Fluently来建设Bixby

很多初创公司也获得了巨额投资:

  • Mythic获得880万美元投资,计划将AI应用到芯片上
  • 专门为公司提供人工智能解决方案的平台Element AI获得1.02亿美元投资
  • Drive.ai获得5000万美元投资,并将吴恩达纳入麾下
  • 英国人工智能芯片硬件设计初创公司Graphcore获得3000万美元投资
  • Appier获得3300万美元的C轮投资
  • Prowler.io获得1300万美元投资
  • Sophia Genetics获得3000万美元投资,用于帮助医生使用AI和基因数据进行诊断

作者:Denny Britz 原文链接 http://www.wildml.com/2017/12/ai-and-deep-learning-in-2017-a-year-in-review/

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-01-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技大本营 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
机器翻译
机器翻译(Tencent Machine Translation,TMT)结合了神经机器翻译和统计机器翻译的优点,从大规模双语语料库自动学习翻译知识,实现从源语言文本到目标语言文本的自动翻译,目前可支持十余种语言的互译。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档