前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >MIT课程全面解读2019深度学习最前沿 | 附视频+PPT

MIT课程全面解读2019深度学习最前沿 | 附视频+PPT

作者头像
量子位
发布2019-04-24 11:15:25
6670
发布2019-04-24 11:15:25
举报
文章被收录于专栏:量子位量子位
夏乙 发自 凹非寺 量子位 出品 | 公众号 QbitAI

人类公元纪年2019年伊始,深度学习技术也同样处在一个新的“开端”,宜review、宜展望。

MIT正在进行中的深度学习课程就全面描绘了当下的状态。

最近一节课,Lex Fridman老师展现了深度学习各方向的最领先状态,也回顾了过去两年间通往前沿的一步步进展。涉及自然语言处理、深度强化学习、训练和推断的加速等等。

这里的“领先”,只谈想法方向,无关基准跑分。

面对课上展现的大进展,甚至有网友说:

课前喝一杯?机器学习进展如此巨大,简直值得来一两瓶。

视频放出一天多,收获感谢无数。

量子位上完课,结合PPT写了笔记一份,分享给大家。

正式开始前,先来一份小目录

这节课涉及的重大进展,共12个方面,分别是:

  • BERT和自然语言处理(NLP)
  • 特斯拉Autopilot二代(以上)硬件:规模化神经网络
  • AdaNet:可集成学习的AutoML
  • AutoAugment:用强化学习做数据增强
  • 用合成数据训练深度神经网络
  • 用Polygon-RNN++做图像分割自动标注
  • DAWNBench:寻找快速便宜的训练方法
  • BigGAN:最领先的图像合成研究
  • 视频到视频合成
  • 语义分割
  • AlphaZero和OpenAI Five
  • 深度学习框架

我们一个一个细说。

BERT和NLP

2018年是自然语言处理之年。很多圈内人把2012年称为深度学习的ImageNet时刻,因为这一年,AlexNet带来了计算机视觉领域的性能飞跃,激励着人们去探索深度学习在这一领域的更多可能性。

2016年到18年,NLP的发展也类似,特别是BERT的出现。

NLP的发展要从编码器-解码器架构说起。

上图展示了一个用于神经机器翻译的序列到序列(seq2seq)模型。RNN编码器负责将输入序列编码成固定大小的向量,也就是整个句子的“表征”,然后把这个表征传递给RNN解码器。

这个架构在机器翻译等领域很管用。

接下来发展出了注意力(Attention)。这种机制,不强迫网络将所有输入信息编码城一个固定长度的向量,在解码过程中还能重新引入输入序列,还能学习输入序列和输出序列中哪一部分互相关联。

比较直观的动态展示是这样的:

再进一步,就发展到了自注意力(Self-Attention),和谷歌“Attention is all you need”论文提出的Transformer架构。

Transformer架构的编码器用自注意力机制为输入序列生成一组表征,解码过程也使用注意力机制。

说完注意力的发展,我们再看一下NLP的一个关键基础:词嵌入。

词嵌入的过程,就是把构成句子的词表示成向量。传统的词嵌入过程用无监督方式将词映射成抽象的表征,一个词的表征参考了它后边的序列。

这是一个语言建模(language modeling)过程。

后来,有了用双向LSTM来做词嵌入的ELMo。

双向LSTM不仅考虑词后边的序列,也考虑它前边的。因此,ELMo词嵌入考虑了上下文,能更好地表征这个词。

接下来出现了OpenAI Transformer。

也就是用先预训练一个Transformer解码器来完成语言建模,然后再训练它完成具体任务。

经过这些进展的积累,2018年出现了BERT,在NLP的各项任务上都带来了性能的明显提升。

它可以用在各种各样的NLP任务上,比如说:

  • 像ELMo一样创建语境化词嵌入;
  • 句子分类;
  • 句对分类;
  • 计算句对的相似度;
  • 完成选择题形式的问答任务;
  • 给句子打标签;
  • 完成普通的问答任务。

量子位之前有回顾2018年深度学习进展、NLP进展的文章,也都详细谈了BERT。

一文看尽2018全年AI技术大突破

不只有BERT!盘点2018年NLP令人激动的10大想法

特斯拉AutoPilot二代硬件

特斯拉的出现毫不意外,量子位之前介绍过,Lex老师是马斯克的小迷弟

作为神经网络大规模应用的代表,也的确值得一提。

Autopilot二代硬件使用了英伟达的Drive PX 2,还搭载了8个摄像头获取输入数据。

Drive PX 2上运行着Inception v1神经网络,运用摄像头获取的各种分辨率数据进行各种来计算,比如分割可以前进的区域,物体检测等等。

这套系统,已经把神经网络带进了车主们的日常生活中。

AdaNet:可集成学习的AutoML

AutoML是机器学习界的梦想:

将机器学习的一方面或者整个流程自动化,扔一个数据集进去,让系统自动决定所有的参数,从层数、模块、结构到超参数……

谷歌的神经架构搜索,无论从效率还是准确率来看成绩都不错。

2018年,AutoML又有了一些新进展,AdaNet就是其中之一。

它是一个基于Tensorflow的框架,AutoML一样,也是用强化学习方法。不过,AdaNet不仅能搜索神经网络架构,还可以学习集合,将最优的架构组合成一个高质量的模型。

要进一步了解AdaNet,可以参考量子位之前的文章:

谷歌开源集成学习工具AdaNet:2017年提出的算法终于实现了

AutoAugment:用强化学习增强数据

从2012年的“ImageNet时刻”到现在,图像识别的新算法层出不穷,成绩一直在提升。

而在计算机视觉里,数据量非常重要,数据增强(data augmentation)也是重要的提升识别率的方法。但是,关于数据增强的研究却不多。

2018年,Google继自动搜索神经架构之后,把数据增强这个步骤也自动化了。

AutoAugment能根据数据集学习这类图像的“不变性”,知道哪些特性是最核心的,然后,神经网络在增强数据时应该让核心特性保持不变。

比如说,它自动增强门牌号数据集的时候,会常用剪切、平移、反转颜色等方法,而在ImageNet这种自然照片数据集上,就不会剪切或者翻转颜色,只会微调颜色、旋转等等。

这个过程和计算机视觉里常用的迁移学习差不多,只不过不是迁移模型权重,而是迁移大型数据集体现出的数据增强策略。

进一步了解AutoAugment,推荐阅读:

利用AutoAugment提升深度学习性能

用合成数据训练深度神经网络

很多机构都在研究如何用合成数据来训练神经网络,英伟达是其中的主要势力。

英伟达非常擅长创造接近真实的场景,他们2018年一篇用合成数据训练深度神经网络的论文就充分利用了这一点,合成数据训练的模型,成绩完全不逊于真真实数据。

合成数据还非常灵活多变,比如说汽车、屋子,都能合成出各种各样的数量、类型、颜色、纹理、背景、距离、视角、灯光等等。

关心如何用合成数据训练模型?英伟达的这篇论文值得一读:

Training Deep Networks with Synthetic Data: Bridging the Reality Gap by Domain Randomization

https://arxiv.org/abs/1804.06516

Polygon-RNN++:图像分割自动标注

在训练深度学习模型过程中,数据标注是非常耗时费力的环节。特别如果要标注出语义分割图,就更加麻烦。

Polygon-RNN++是一种自动标注图像的方法,能自动生成一个多边形,来标注出图像里的对象。

它用CNN提取图像特征,然后用RNN解码出多边形的顶点,提出多个候选多边形。然后,一个评估网络从候选中选出最好的。

这也是让深度学习尽可能自动化的一种努力。

Polygon-RNN++的主页上,能找到这一工具的论文、Demo、代码等各种资料:

http://www.cs.toronto.edu/polyrnn/

DAWNBench:寻找快速便宜的训练方法

除了让深度学习尽可能自动化之外,还有一个一直受关注的研究方向:让它更易用。也就是快速、便宜。

斯坦福提出的DAWNBench基准,评估的就是模型的速度和成本。它测试各种模型、框架、硬件在ImageNet上达到93%准确率,CIFAR上达到94%准确率的训练、推断速度和成本。

官网在这里: https://dawn.cs.stanford.edu/benchmark/

在快速廉价这方面,fast.ai有很好的成绩。他们用租来的亚马逊AWS的云计算资源,18分钟在ImageNet上将图像分类模型训练到了93%的准确率。

他们所用的方法,关键在于在训练过程中逐渐提高学习率、降低momentum,这样就可以用非常高的学习率来训练,还能避免过拟合,减少训练周期。

量子位曾经介绍过:

40美元18分钟训练整个ImageNet!他们说,这个成绩人人可实现

BigGAN:最领先的图像合成研究

在用GAN合成照片这个方向上,2018年最受人瞩目的成就是DeepMind的BigGAN。

它所用的基本模型没有太大变化,关键在于提升训练规模,增大了模型的容量和训练的批次大小。

BigGAN还提交到ICLR匿名评审时,学界就已经沸腾,因为效果实在是堪称史上最佳。

现在,官方开放了BigGAN的Demo,人人都能上手体验:

史上最强GAN:训练费10万起,现在免费体验,画风鬼畜又逼真

视频到视频合成

这个领域有一项非常值得关注的研究,那就是英伟达和MIT的“Video-to-Video Synthesis”。

只要一幅动态的语义地图,你就可以获得和真实世界几乎一模一样的视频。

通过一个简单的白描草图,也能生成细节丰富、动作流畅的高清人脸:

甚至整个身子都能搞定,跳舞毫无压力:

论文、代码都已公布,量子位也比较详细地介绍过,可以到这里看:

真实到可怕!英伟达MIT造出马良的神笔

语义分割

视觉感知的问题可以分为三大层级,目前研究最充分的,是分类,也就是图像识别。

然后,是目标检测:在一幅图像里,框出物体,识别出它是什么。

关于目标检测的研究非常多:

其中不少工作很exciting,但Lex老师认为哪一个都称不上“突破”。

而语义分割,是视觉感知问题的最高层级。

现在,这一领域的最好成绩属于DeepLab v3+。

关于语义分割的重要研究,可以说从2014年的FCN开始,经历了2015年的SegNet、Dilated Convolutions的发展,2016年出现了DeepLab v1、v2版本。

DeepLab系列用ResNet来提取图像特征,增加了全连接条件随机场(CRF)作为后续处理步骤,能捕捉图像中的局部和长距离依赖,优化预测图,还引入了空洞卷积。

在前两版的基础上,DeepLab v3又增加了多尺度分割物体的能力。

DeepLab的代码,在TensorFlow模型中: https://github.com/tensorflow/models/tree/master/research/deeplab

AlphaZero和OpenAI Five

用强化学习打游戏这件事,2018年也有明显进步。

这个领域最初的尝试,是DeepMind用强化学习算法玩了一遍雅达利的小游戏,推出了DQN。

随后,就是围棋AI AlphaGo广为人知的一系列发展:

从AlphaGo到AlphaZero的过程,也是一个越来越节约人工、机器自主性越来越高的过程。

AlphaZero掌握围棋、国际象棋、日本将棋三大棋类,但都是完美信息、规则清晰游戏。而OpenAI把目光投向了更混乱的试验场:Dota 2。

对于强化学习算法来说,Dota 2更接近真实世界的情况,它需要解决团队协作、长时间协调、隐藏信息等问题。

OpenAI在Dota 2上取得的进展如下:

  • 2017年,他们的算法在1v1比赛中击败顶尖选手Dendi;
  • 2018年,5v5的AI队伍OpenAI Five在Dota比赛TI上对战顶尖职业选手,输了两局。

两场比赛的回顾、技术解读、精彩片段,都在量子位曾经的报道里:

未来仍需努力。

深度学习框架

回顾整个2018年,深度学习框架排名是这样的:

来源:Lhttps://towardsdatascience.com/deep-learning-framework-power-scores-2018-23607ddf297a

框架的格局会往什么方向发展?要看这样几个用户关心的因素:

  • 学习曲线
  • 开发速度
  • 社区的规模和热情
  • 用这一框架实现的论文数量
  • 长期发展和稳定的可能性
  • 工具生态

2019展望

要展望2019,我们应该好好思考Hinton谈过的两个观点:

关于反向传播:“我的观点是把它完全抛弃,从头再来。”

“未来取决于我说什么都深切怀疑的那些研究生们。”

最后,附整节课视频(纯生肉,英语、无字幕):

以及PPT:

https://www.dropbox.com/s/v3rq3895r05xick/deep_learning_state_of_the_art.pdf?dl=0

量子位(公众号QbitAI)还在网盘传了一份PPT,在公众号对话界面回复“最前沿”可得。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-01-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • BERT和NLP
  • 特斯拉AutoPilot二代硬件
  • AdaNet:可集成学习的AutoML
  • AutoAugment:用强化学习增强数据
  • 用合成数据训练深度神经网络
  • Polygon-RNN++:图像分割自动标注
  • DAWNBench:寻找快速便宜的训练方法
  • BigGAN:最领先的图像合成研究
  • 视频到视频合成
  • 语义分割
  • AlphaZero和OpenAI Five
  • 深度学习框架
  • 2019展望
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档