专栏首页YoungGy机器翻译之Facebook的CNN与Google的Attention

机器翻译之Facebook的CNN与Google的Attention

机器翻译的常用架构是seq2seq,可是seq2seq中的核心模型RNN是序列模型,后面的计算依赖于前面的计算,如何并行提高效率很是苦恼。最近,Facebook和Google的研究人员分别尝试用CNN与Attention代替seq2seq进行机器翻译,提高了训练效率,结构与思想也很予人启迪。

传统的seq2seq

传统seq2seq训练结构如上图,采用两个RNN,分别作为encoder和decoder。seq2seq的一些改进如下:

  • decoder中增加更多的信息:decoder中hth^t除了依赖ht−1,xth_{t-1}, x^t,还依赖于enc_state
  • 使用attention机制。

facebook的cnn

结构

其结构如上面2图所示,具体地:

  1. 输入序列大小为【m】
  2. 对输入序列做position embedding,得到【m,e_m】
  3. 对position embedding做卷积,得到【2m,e_m】
  4. 卷积后通过Gated Linear Units,得到【m,e_m】
  5. 重复3-4,stack起来,得到【m,e_m】
  6. 对输出序列重复2-5,得到【n,e_n】
  7. 对5,6中的数据做点乘,得到中间的矩阵【m,n】,代表了attention的分数信息
  8. 上文信息,通过卷积前(细节信息)和卷积后(主旨信息)的信息和获得【m,e_m】。
  9. 有了上文信息【m,e_m】和attention【m,n】信息,便可以获得输出序列中每个词对应的上文特征【n,e_m】
  10. 将输出序列的上文特征【n,e_m】与输出序列的卷积特征【n,e_n】组合,加入全连接,加入softmax层即可构建损失函数进行训练。

特点

position embedding

position embedding,在词向量中潜入了位置信息。

卷积的引入

首先,简单描述下文中的卷积,假设原数据大小X∈ℝk∗dX \in \mathbb{R}^{k*d}(k个数据,embeding的维度是d),每个卷积核参数化W∈ℝ2d∗kdW \in \mathbb{R}^{2d*kd},卷积后得到的结果是ℝ2d\mathbb{R}^{2d}。padding合适的化,最后得到ℝ2k∗d\mathbb{R}^{2k*d}。

卷积的引入,有以下几个优点:

  • 使计算可以做并行化
  • 卷积层可以stack起来,不同的层的可视域不同,底层的是细节信息,高层的是全局信息。
  • 效率高,对序列长度n的序列建模,rnn的操作是O(n)O(n),CNN的操作是O(log(n)O(\log(n)。

GLU控制信息的流动

GLU的公式如下:

v([A,B])=A∘σ(B)

v([A, B]) = A \circ \sigma(B)

卷积出来的数据【2m,e_m】对应【A,B】,通过GLU便恢复了原数据形状【m,e_m】。同时GLU中的A控制信息,B相当于开关控制着有效信息的流动。

attention

attention的分数矩阵,是输入、输出序列通过多个卷积stack起来获得的,每个词的可视域通过CNN自然地扩增了。

attention的上文信息,通过低层的CNN和高层的CNN组合获得, 反映了词的细节信息和全局主旨信息。

google的attention

结构

特点

K,V,Q的思维架构

本文提出了一种key、value、pair的计算attention的架构,结构与思路如上图所示。首先,通过Query和Key矩阵计算每个quiry对应的key的匹配程度,然后根据匹配程度将Value矩阵中的元素组合起来。

multi-head attention

通过一个全连接层,可以将K、V、Q映射到维度较低的子空间,然后在不同的子空间进行attention的计算。这样做有如下优点:

  • 子空间维度较低,不增加计算量
  • 有利于并行化
  • 不同的子空间捕获不同的特征

attention的多种应用

结构中共出现了3出attention:

  • encoder-decoder attention,K、V来自encoder,Q来自decoder,作用与传统的seq2seq相似,decoder根据不同的位置捕获encoder不同位置的信息。
  • encoder self-attention。K、V、Q来自同一位置,encoder的每一个位置都捕获所有位置的信息。
  • decoder self-attention,K、V、Q来自同一位置,decoder的每一个位置都捕获该位置前所有位置的信息(通过mask实现)。

参考资料

  1. Convolutional Sequence to Sequence Learning
  2. Attention Is All You Need

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • ISLR_Propotion

    逻辑 sampling variability CLT for propotions sampling distribution CLT for propot...

    用户1147754
  • Linux_1

    unix(商业系统) -> minix(开源) -> linux(91年) 内核版本与发行版本 服务器领域用的更多的还是redhat(稳定不包括图形界面),ub...

    用户1147754
  • ISLR_StatisticalLearning

    Statistical Learning why estimate f 用来预测 预测的时候可以将f̂ \hat{f}当成一个black box来用,目的主...

    用户1147754
  • repo文件详解

    有时候,由于网络或其它各种可能的原因,系统自带的RPM仓库可能满足不了我们的需求,这个时候,我们就需要自己定制一份属于自己的仓库文件,接下来,我们一起学习RPM...

    用户1456517
  • 一文让你入门CNN,附3份深度学习视频资源

    CNN简介 文末附三份深度学习视频资源 后台回复关键词(20180310) 目录: 一些视频资源和文章 CNN简介 图像即四维张量? 卷积的定义 CNN如何工作...

    昱良
  • AngularDart 4.0 高级-安全

    本页面介绍了Angular内置的针对常见的Web应用程序漏洞和跨站脚本攻击等攻击的内置保护。 它不包括应用程序级别的安全性,如身份验证(此用户是谁?)和授权(此...

    南郭先生
  • 【JMeter-4】JMeter元件详解之逻辑控制器

    文章内容是参照Jmeter官网和自己实践完成的,JMeter官网地址贴上,有兴趣的朋友可以去阅读一下:JMeter官网

    云深i不知处
  • 满分室间质评之GATK Somatic SNV+Indel+CNV+SV(下)性能优化

    #此处是原先Manta分析SV的步骤一,生成runWorkflow.py,因为这一不步速度很快,所以串行执行 rm -f ${result}/${sn}/r...

    SliverWorkspace
  • 使用 R 语言从拉勾网看数据挖掘岗位现状

    因为毕业后想从事数据挖掘相关的职业,但对该行业的需求不太了解,网上资料太多查看花时间且抓不住重点,所以爬取了拉勾网上 900 多条相关的岗位共计 30 万字的职...

    用户1332428
  • Windows下用Bochs编译运行Linux-0.11

    版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/...

    用户1147447

扫码关注云+社区

领取腾讯云代金券