谷歌大脑:混合专家层超大规模 AI,模型性能提升 1000 多倍

【新智元导读】谷歌大脑的这项最新研究作者包括 Geoffrey Hinton 和 Jeff Dean,论文提出了一个超大规模的神经网络——稀疏门控混合专家层(Sparsely-Gated Mixture-of-Experts layer,MoE)。MoE 包含上万个子网络,每个网络的参数更是高达 1370 亿个之多。通过灵活控制部分网络,新的技术在大规模语言建模和机器翻译基准测试中,花费很小的计算力实现了性能的显著提升。这项工作是深度网络条件计算在产业实践中的首次成功,有助于推广神经网络以及新应用的产生。

论文地址:https://arxiv.org/pdf/1701.06538.pdf

超大规模神经网络:稀疏门控混合专家层

摘要

神经网络吸收信息的能力受其参数数量的限制。有人在理论上提出了条件计算(conditional computation)的概念,作为大幅提升模型容量而不会大幅增加计算力需求的一种方法。在条件计算中,部分网络的活动以样本数量为基础(active on a per-example basis)。然而在实践中,要实现条件计算,在算法和性能方面还存在很大的挑战。

在本次研究中,我们针对这些问题并最终在实践中发挥出条件计算的潜力,在模型容量上得到超过 1000 倍的提升,同时让现代 GPU 集群的计算效率仅发生了微小的损失。我们提出了一个稀疏门控混合专家层(Sparsely-Gated Mixture-of-Experts layer,MoE),由多达数千个前馈子网络组成。可训练的门控网络会决定这些专家层(expert)的稀疏组合,并将其用于每个样本。

我们将 MoE 应用于语言建模和机器翻译任务,在这些任务中模型性能(model capacity)对于吸收训练语料库中可用的大量知识至关重要。我们提出的模型架构中,高达 1370 亿个参数被卷积地应用于堆叠的 LSTM 层当中。在大型语言建模和机器翻译基准测试中,这些模型以更低的计算成本获了得比现有最好技术更好的结果。

1. 简介及相关工作

1.1 条件计算(Conditional Computation)

利用训练数据和模型大小的规模是深度学习成功的关键。当数据集足够大时,增加神经网络的容量(参数数量)可以得到更高的预测精度。这已在一系列研究领域的工作中得到证实,包括文本,图像,音频等领域。对典型的深度学习模型,其中整个模型被激活用于每个示例,由于模型大小和训练样本的数量增加,导致训练成本几乎二次方级地增加。但是计算力和分布式计算的进步不能满足这种需求。

为了提升模型能力,同时不会成比例地增加计算成本,已经有前人研究提出了各种形式的条件计算(conditional computation)。在这些设计中,网络的大部分在每个示例的基点上(on a per-example basis)可以是活动的(active)或者非活动的(inactive)。门控决策(gating decisions)可以是二进制的(binary),稀疏连续的(sparse and continuous),随机的(stochastic)或确定性的(deterministic)。用于训练门控决策的强化学习和反向传播算法也有多种形式。

图1:嵌入在循环语言模型中的混合专家(Mixture of Experts,MoE)层。在这种情况下,稀疏门函数选择两个专家来执行计算,它们的输出由门控网络的输出控制。

虽然这些想法在理论上很不错,但迄今为止还没有研究能证明它们在模型容量(model capacity),训练时间或模型质量有大的提高。我们将此归咎于以下难点:

  • 现代计算设备,特别是 GPU,在运算(arithmetic)上比在分支(branching)上快得多。前面提到的大部分研究都认识到这一点,并提出利用每个门控决策打开/关闭网络的较大chunk。
  • 批大小对网络性能至关重要,因为它们摊销了参数传输和更新的成本。条件计算减小了网络的条件激活块的批大小。
  • 网络带宽可能是一个瓶颈。一组GPU可能拥有的计算能力比聚合设备间网络(aggregate inter-device network)带宽大几千倍。为了计算效率,计算与网络需求之比必须超过该比率。嵌入层可以看作是一种形式的条件计算,正是这个问题的不利条件。由于嵌入通常需要跨网络传送,交互的数量(例如参数数量)受网络带宽而不是计算能力的限制。
  • 根据这样的图式,损失项(loss terms)可能是实现每个 chunk 和/或每个 example 的期望稀疏水平(sparsity)所必需的。Bengio 等人(2015)的研究使用了三个这样的损失项。这些问题可能会同时影响模型质量和负载平衡。

模型容量(model capacity)对非常大的数据集来说是最关键的。现有有关条件计算的前人研究涉及由较小的图像识别数据集组成的包含 600000 张图像的数据集。很难想象这些图像的标记提供足够的信号来充分训练具有数百万,甚至数十亿的参数的模型。

在这项研究中,我们首次解决了上述的所有挑战,最终实现了条件计算所能带来的好处。我们在模型容量上得到了超过1000倍的提升,在计算效率方面只有微小的损失,并显着提高了在公共语言建模和翻译数据集上的最优结果。

1.2 我们的方法:稀疏门控混合专家层(Sparsely-Gated Mixture-of-Experts layer)

我们的条件计算方法是提出一种新型的通用神经网络组件:稀疏门控混合专家层(MoE)。MoE 由许多专家组成,每个专家都有一个简单的前馈神经网络和一个可训练的门网络(gating network),该门网络选择专家的一个稀疏组合来处理每个输入(见图1)。网络的所有部分通过反向传播一起训练。

虽然我们提出的该项技术是通用的,但在本研究中,我们专注于语言建模和机器翻译任务,这些任务已经被证明能从非常大的模型中获益。我们在堆叠的 LSTM 层之间应用一个卷积MoE(Hochreiter&Schmidhuber,1997),如图1所示。对文本中的每个位置,MoE 都被调用一次,在每个位置上可能选择不同的专家组合。基于句法和语义(见附录E Table 9),不同的专家能够高度专业化。在语言建模和机器翻译基准上,我们以很小的计算成本得到了比现有已发表最佳结果更好的表现。

2. 专家混合(MoE)层的结构

专家混合(MoE)层由一组 n 个“专家网络” E1,...,En 和“输出为稀疏 n 维向量”的“门控网络”G组成。图1 显示了 MoE 模块的结构。每个专家本身也是神经网络,都有自己的参数。虽然原则上只需要专家接受相同大小的输入并产生相同大小的输出,但在本文的初步调查中,我们将情况限定为这些模型都是具有相同架构的前馈网络,但参数是彼此独立的。

2.1 门控网络

Softmax 门控 非稀疏门控函数的简单选择(Jordan和Jacobs,1994)是将输入乘以可训练的权重矩阵Wg,然后应用Softmax 函数。

Noisy Top-K 门控 我们在 Softmax门控网络中增加了两个组件:稀疏和噪声。进行 Softmax 函数之前,我们添加可调高斯噪声,然后只保留前 k 个值,将其余部分设置为 -∞(这导致相应的门值等于0)。稀疏度能够节省计算力。虽然这种形式的稀疏性在门控函数的输出中产生了一些理论上不连续,但我们在实践中尚未观察到这成为问题。噪声项(noise term)有助于负载平衡(load balancing)。每个分量的噪声量由第二个可训练权重的矩阵 Wnoise 控制。

训练门控网络 我们使用简单的反向传播训练门控网络和模型的其余部分。如果我们选择 k> 1,则前k 个专家的门值相对于门控网络的权重具有非零导数。这种类型的行为在(Bengio 等人,2013)关于噪声整流器的研究中有相关描述。梯度也通过门控网络进行反向传播一直到其输入。我们采用的方法与(Bengio 等人,2015)的不同,他们使用布尔门和一个 REINFORCE 风格的方法来训练门控网络。

3. 性能挑战

3.1 批处理问题

在现代 CPU 和 GPU 上,大的批处理量对于计算效率是必要的,这样能够分摊参数加载和更新的开销。如果门控网络为每个样本从 n 个专家中选择 k 个,则对于一批 b 个样本来说,每个专家接收的批次要远远小于 b 个样本。这导致随着专家数量的增加,朴素 MoE 的实现变得非常低效。这种收缩批处理问题的解决方案是使原始批处理量尽可能大。但是,批量大小多受存储前进和后退之间激活所需的存储器的限制。由此,我们提出了以下技术用于增加批量大小:

混合数据并行性和模型并行性(Mixing Data Parallelism and Model Parallelism):在传统的分布式训练设置中,不同设备上的模型的多个副本异步处理不同批次的数据,并且通过一组参数服务器来同步参数。在我们的技术中,这些不同的批次同步运行,以便它们可以组合为 MoE 层。

利用卷积性:在我们的语言模型中,我们对上一层的每个时间步长应用相同的 MoE。 如果我们等待上一层完成,我们可以将 MoE 作为一个大批次,应用于所有时间步骤。这样做会将输入MoE 层批次大小增加 n 倍,n = 展开时间步长的数量。

增加 Recurrent MoE 层的批量大小:我们认为更强大的模型可能需要循环地使用 MoE。例如,可以用 MoE 代替 LSTM 或其他 RNN 的权重矩阵。可惜,这样做会破坏上面提到的利用卷积性,因为在一个时间步长对 MoE 的输入取决于在先前时间步长的 MoE 的输出。Gruslys 等人(2016)描述了一种技术,通过重新计算正向激活(forward activations),大幅减少了展开的 RNN 中存储的激活的数量。使用这种技术就能使批处理量大大增加。

3.2 带宽

分布式计算中的另一个主要性能问题是网络带宽。 由于专家是固定的(见上文)并且门控参数的数量很小,所以大多数信息传输都需要在网络中发送专家的输入和输出。为了保持计算效率,专家计算与其输入和输出的大小的比率,必须超过计算设备的计算与网络容量的比率。对于 GPU 而言,这可能是数千比一。在实验中,我们使用专家与一个含有上万个 RELU 激活单位的隐含层,这样计算与输入和输出的比率就等于隐藏层的大小。因此,我们可以简单地通过使用更大的隐藏层或使用更多的隐藏层来提高计算效率。

4. 平衡专家的利用率(Balancing expert utilization)

5. 实验及结果

5.1 10 亿语言建模基准

下图(图2)展示了 MoE 在 10 亿词汇语言建模基准上与目前最先进技术之间结果的比较。左图是测试困惑度(test perplexity)曲线,作为具有类似计算预算(大约每时间步长800万次运算)的模型的模型容量函数。右图是作为计算预算函数的测试困惑度(test perplexity)。下面右边的图中,上边的线表示(Jozefowicz et al., 2016)的 LSTM 模型,下边的线表示具有不同计算预算的 40 亿个参数的 MoE 模型。

表1:高容量 MoE 增强模型在不同计算预算上的结果,与此前发表的最佳结果(Jozefowicz et al., 2016)的比较。

5.2 1000亿词汇谷歌新闻数据库

图3显示了在100亿词(上边的线)和1000亿词(下边的线)的数据上训练之后的作为容量函数的测试困惑度。当训练数据超过1000亿词汇时,测试困惑度显着提高到65536个专家(680亿个参数),比计算匹配的基线降低39%,但减少了131072个专家,这可能是由于稀疏性太高。两条线之间的差距扩大表明增加的模型能力对更大的训练集有利。即使在65536专家(99.994%层稀疏)上,该模型的计算效率可保持在 0.72 TFLOPS / GPU。

图3:在1000亿词的语料库上的语言建模。模型具有类似的计算预算(800万运算/时间步长)。

5.3 WMT'14 英法翻译、英德翻译和 Google Production 英法翻译结果

5.4 多机翻译结果

论文地址:https://arxiv.org/pdf/1701.06538.pdf

相关讨论

Denny Britz: 这项工作让我想起了 Highway Networks,不过增加了额外的限制,利用门控稀疏节省计算力。要是作者讨论每个子网络(专家)的结构不同时会发生什么就更好了。

Smerity:Google 使用数十亿个参数在机器翻译和语言建模方面实现了最先进的技术。灵活地使用模型的部分结构,(在超大规模的同时)让计算的总量相当易处理!

原文发布于微信公众号 - 新智元(AI_era)

原文发表时间:2017-03-16

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏智能算法

模拟退火优化算法

一. 爬山算法 ( Hill Climbing ) 介绍模拟退火前,先介绍爬山算法。爬山算法是一种简单的贪心搜索算法,该算法每次从当前解的临近...

3786
来自专栏新智元

深度学习盛会 ICLR-17 最佳论文出炉!机器自主编程 NPI 再称雄

1 新智元编译 来源:iclr.cc、openreview.net 编译:闻菲、张易、刘小芹 【新智元导读】深度学习盛会 ICLR 2017 日程及最佳论文...

43813
来自专栏企鹅号快讯

人工智能这么火,可你真的会用 TensorFlow?

关键时刻,第一时间送达! ? 启 看到最近很多在讲 TensorFlow 的文章,忽然想写一些关于机器学习和算法基础类的文章,当一个东西每个人都在谈论的时候就少...

2847
来自专栏PPV课数据科学社区

一文看懂自然语言处理(NLP)的深度学习发展史和待解难题

自然语言处理(NLP)是指机器理解并解释人类写作与说话方式的能力。近年来,深度学习技术在自然语言处理方面的研究和应用也取得了显著的成果。 技术博客Sigmoid...

4816
来自专栏新智元

Hinton 谷歌大脑最新研究:1370 亿参数超大规模神经网络

【新智元导读】谷歌大脑研究员昨天往 arXiv 上传了被 ICLR'17 接收的一篇论文,作者包括深度学习教父 Geoffrey Hinton 和谷歌技术大牛 ...

35313
来自专栏ATYUN订阅号

微软开发了灵活的AI系统,用于文本摘要任务,优于现有模型

对于AI来说,将段落总结成句子并不容易。这是因为它需要对文本的语义理解,这超出了大多数现有的自然语言处理模型的能力。但微软的研究人员最近证明,这并非完全不可能。

3782
来自专栏小巫技术博客

深度学习,NLP和表征(译)

973
来自专栏机器之心

教程 | 从零开始:如何使用LSTM预测汇率变化趋势

选自Stats and Bots 作者:Neelabh Pant 机器之心编译 参与:刘晓坤、蒋思源 在这篇文章中,我们将通过 LSTM 讨论时序预测模型,数据...

5699
来自专栏专知

基于信息理论的机器学习-中科院自动化所胡包钢研究员教程分享03(附pdf下载)

【导读】专知于11月24日推出胡老师的基于信息理论的机器学习报告系列教程,大家反响热烈,胡老师PPT内容非常翔实精彩,是学习机器学习信息理论不可多得的好教程,今...

3627
来自专栏AI研习社

博客 | 论文解读:对端到端语音识别网络的两种全新探索

雷锋网 AI 科技评论按:语音识别技术历史悠久,早在上世纪 50 年代,贝尔研究所就研究出了可以识别十个英文数字的简单系统。从上世纪 70 年代起,传统的基于统...

1653

扫码关注云+社区

领取腾讯云代金券