学界 | Google Brain提出基于固定尺寸记忆表示的注意力模型,翻译任务推理速度提高20%

AI科技评论按:Attention模型是近些年来自然语言处理领域重要的进展之一。注意力模型是从认知心理学中人脑注意力模型中引入的概念,在人观察世界时,对不同对象的关注程度是不同的,比如你在看书仔细品味文章中的一句话时,虽然你能看到整页的文字,但是注意力的焦点集中在这个句子上,其他文字虽然还在你的眼中,但是实际分配到的注意力是很少的。自然语言处理中也是同理,输入文本的不同部分对输出的贡献是不同的,即需要分配的注意力权重不同。使用注意力模型能够得到更好的生成结果。

由于标准的基于内容的attention机制主要应用在sequence-to-sequence模型中,由于该方法需要在每个时间状态下大量比较编码器和解码器的状态,因此需要大量计算资源。Google Brain的研究者Denny Britz, Melody Y. Guan和Minh-Thang Luong提出了固定尺寸记忆表示的高效注意力模型,能够将翻译任务推理速度提高20%。

以下为 AI 科技评论据论文内容进行的部分编译。

论文摘要:

Sequence-to-sequence模型在许多任务得到了最好的效果,例如神经机器翻译(Neural Machine Translation,NMT),文本概括(text summarization),语音识别,图像配字幕,以及对话建模等。

最流行的attention方法基于编码器-解码器架构,包含两个循环神经网络和attention机制使得目标与源符号对齐。在这种结构中使用的典型attention机制计算在每个解码步骤中基于解码器当前的状态计算新的attention上下文。更直观的说法是,这对应于每个单个目标符号输出之后查看源序列。

受人类是如何处理句子的启发,研究者认为在每个步骤中可能没有必要回顾整个原始源序列。因此,研究者提出了一种替代attention机制,可以使得计算时间复杂度的降低。该方法在读取源数据时,预测K attention上下文向量。并学习在每个解码步骤中使用这些向量的加权平均值。因此,一旦编码了源序列,就避免回头看。结果显示,这可以加速推理。同时,在玩具数据集和WMT翻译数据集上,该方法达到了与标准attention机制相若的性能。结果还显示,随着序列变长,该机制能够实现更多的加速。最后,通过可视化attention分数,研究人员验证了该技术能够学习有意义的对比,并且不同的attention上下文向量专注于源的不同部分。

上图为该方法与标准注意力模型的结构对比。在编码阶段预测K个attention向量,在解码阶段线性组合这些预测。在上图中K=3。可以将基于记忆的注意力模型解释为“预测”编码期间由标准attention机制产生的一组注意上下文。如上图,K=3,在这种情况下,在编码阶段预测所有3种attention上下文,并在解码过程中学习选择合适的attention上下文,进行线性组合。这中方法比基于解码器编码内同的诸葛计算上下文更加节省计算量。

实验结果

玩具数据集结果:

由于计算时间复杂度的下降,该方法能够得到更高的性能表现,尤其是对于那些较长的序列,或者那些能够被紧凑表示为一个固定尺寸记忆矩阵的任务。为了研究速度和性能之间的权衡,研究者比较了该方法和标准模型在具有和不具有attention的情况下在Sequence Copy Task上的表现。

下表展示了该模型在不同序列长度和K的情况下的BLEU分数。较大的K可以计算复杂的源表示,值为1的K限制了源表示为单个向量。可以看到,性能一直随着K的增加而增加,这取决于数据长度,更长的序列需要更复杂的表示。无论是否具有位置编码,结果在玩具数据集上几乎相同。尽管表示能力较低,但该方法仍与标准attention机制模型一样能够拟合数据。两者都以显著的差距击败non-attention基线。最后一列表明了该方法能够极大的加速推理过程,随着序列长度变长,推理速度的差距越来越大。

下图左侧展示了序列长度为200的学习曲线。可以看到K=1不能拟合数据分布,而K∈{32,64}几乎与基于attention的模型一样快。越大的K能够导致更快的收敛速度,较小的K的性能与non-attention基线相似。右图展示了在softmax和sigmoid之间改变编码器和解码器评分函数的效果。所有组合都可以拟合数据,但有些收敛速度比其他更快。

机器翻译数据集结果:

接下来,研究者测试了基于记忆的attention方法能否拟合复杂的真实数据集。研究人员使用了WMT’15的4个大型机器翻译数据集:English-Czech, EnglishGerman, English-Finish, 和English-Turkish。

上表展示了该模型即使在拥有16K词汇的大型复杂数据集上仍有更快的解码速度。该时间实在整个验证集上测量的解码时间,没有包括模型设置和数据读取的时间,为运行10次的平均时间。数据中平均序列长度为35,对于其他有更长序列长度的任务,该方法应该会有更显著的速度提升。

左:en-fi的训练曲线 右:en-tr的训练曲线

上图展示了在编码器和解码器中使用sigmoid和softmax函数的效果。Softmax/softmax的性能表现最差,其他的组合表现几乎相当。

可视化Attention:

上图为在序列长度为100的玩具数据集中对每个样本进行解码的每个步骤中的attention分数。(y轴:源符号; x轴:目标符号)

上图为在序列长度为11的样本上的K=4的解码的每个步骤的attention分数,(y轴:源; x轴:目标)

上图为在使用sigmoid评分函数和K=32的模型下,对每个步骤进行解码的en-de WMT翻译任务的attention分数。左侧子图分别显示每个单独的attention向量,右侧子图显示attention的完整组合。

论文地址:https://arxiv.org/abs/1707.00110,AI 科技评论编译

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-07-10

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏养码场

74集《面向机器人学习的神经网络》教程视频!深度学习开山鼻祖Hinton带你系统学习!

但他创立的门派——深度学习,却无人不知,点开本文的高傲的你,也许就是、或者即将成为,他的徒孙。

783
来自专栏机器学习算法全栈工程师

ResNet, AlexNet, VGG, Inception: 理解各种各样的CNN架构

作者:叶 虎 编辑:王抒伟 本文翻译自ResNet, AlexNet, VGG, Inception: Understanding various ar...

9076
来自专栏崔庆才的专栏

模型怎么调都没有提升?来试试目前最好用的词向量ELMo吧!

近年来,研究人员通过文本上下文信息分析获得更好的词向量。ELMo是其中的翘楚,在多个任务、多个数据集上都有显著的提升。所以,它是目前最好用的词向量,the-st...

1070
来自专栏机器人网

具有启发性的十种深度学习方法

 不管是AI也好,其他学科也好,学习、研究的过程中不断反思学科的历史,总结学科的发展现状,找出重要的理念,总能让人能“吾道一以贯之”。软件工程师James Le...

34411
来自专栏全球人工智能的专栏

深度学习入门指南:初学者必看!

近来,深度学习技术使得机器学习发生了革命性的变化,并出现了很多伟大的成果。 它们大大改进了语音识别、视觉对象识别、对象检测以及许多其他领域(如药物发现和基因组学...

2631
来自专栏机器之心

学界 | 双重注意力网络:中科院自动化所提出新的自然场景图像分割框架(附源码)

作者:Jun Fu、Jing Liu、Haijie Tian、Zhiwei Fang、Hanqing Lu

1302
来自专栏机器之心

CVPR 2018 | Spotlight 论文:非参数化方法实现的极端无监督特征学习

1483
来自专栏机器之心

资源 | 吴恩达deeplearning.ai第四课学习心得:卷积神经网络与计算机视觉

选自Medium 机器之心编译 参与:路雪、李泽南 不久前,Coursera 上放出了吴恩达 deeplearning.ai 的第四门课程《卷积神经网络》。本文...

3257
来自专栏GAN&CV

四大经典卷积网络介绍

原标题:独家 |《TensorFlow实战》作者黄文坚:四大经典CNN网络技术原理

671
来自专栏数据派THU

独家 | 一文读懂深度学习(附学习资源)

Figure1. Deep learning导图 前言 深度学习(deep learning)的概念最早可以追溯到1940-1960年间的控制论(cyberne...

2306

扫码关注云+社区