前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >TensorFlow文本摘要生成 - 基于注意力的序列到序列模型

TensorFlow文本摘要生成 - 基于注意力的序列到序列模型

作者头像
小爷毛毛_卓寿杰
发布2019-06-11 11:27:08
7950
发布2019-06-11 11:27:08
举报
文章被收录于专栏:Soul Joy HubSoul Joy Hub

1 相关背景

维基百科对自动摘要生成的定义是, “使用计算机程序对一段文本进行处理, 生成一段长度被压缩的摘要, 并且这个摘要能保留原始文本的大部分重要信息”. 摘要生成算法主要分为抽取型(Extraction-based)和概括型(Abstraction-based)两类. 传统的摘要生成系统大部分都是抽取型的, 这类方法从给定的文章中, 抽取关键的句子或者短语, 并重新拼接成一小段摘要, 而不对原本的内容做创造性的修改. 这类抽取型算法工程上已经有很多开源的解决办法了, 例如Github上的项目sumy, pytextrank, textteaser等. 本文重点讲概括型摘要生成系统的算法思想和tensorflow实战, 算法思想源于A Neural Attention Model for Abstractive Sentence Summarization这篇论文. 本文希望帮助读者详细的解析算法的原理, 再结合github上相关的开源项目textsum讲解工程上的实际应用.本文由PPmoney大数据算法团队撰写,PPmoney是国内领先的互联网金融公司,旗下PPmoney理财总交易额超过700亿元。此外,若对TensorFlow的使用技巧和方法感兴趣,欢迎阅读本团队负责人黄文坚所著的《TensorFlow实战》

2 算法原理

下面对A Neural Attention Model for Abstractive Sentence Summarization这篇文章, 的算法原理进行讲解. 我们将这个模型简称为NAM. 主要分为模型训练(train)和生成摘要(decode)两部分讲解.

2.1 模型训练(train)

NAM这个模型是纯数据驱动, 我们喂给它的训练集数据是由一系列{正文: 摘要}对组成. 假设正文是x=[x1,...,xM]\textbf{x} = [\textbf{x}_1,...,\textbf{x}_M], MM是正文词符的数量, 对应的摘要为y=[y1,...,yN]\textbf{y} = [\textbf{y}_1,...,\textbf{y}_N], NN是摘要单词的数量. 对于给定的数据, 我们希望给定x\textbf{x}生成摘要为y\textbf{y}的概率最大, 即maxθlogp(y|x;θ)\max_\theta{\log p(\textbf{y}|\textbf{x};\theta)}, θ\theta是模型的参数. 但这个很难求解, 实际中我们用序列化的方式实例化这个目标, 原来的目标函数变为:

maxθ∑i=0N−1logp(yi+1|x,yc;θ)

\max_\theta {\sum_{i=0}^{N-1}\log p(\textbf{y}_{i+1}|\textbf{x},\textbf{y}_c;\theta)} 这里 yi+1\textbf{y}_{i+1}是要预测的下一个词, yc≜y[i−C+1,...,i]\textbf{y}_c\triangleq\textbf{y}_{[i-C+1,...,i]}是已知的序列, CC是已知序列窗口的长度. 后面会提到, 这个窗口的位置也是注意力关注的位置, 在后面的训练过程中会根据学习到的权重调整不同位置注意力的概率大小. 这个窗口是随着ii的迭代来滑动的. 参数说明: y\textbf{y}: 参考摘要所有单词向量组成的序列 x\textbf{x}: 正文的所以单词向量组成的序列 ii: 当前评估函数所对应的位置 yc\textbf{y}_c: 当前训练的窗口对应的局部摘要序列 yi+1\textbf{y}_{i+1}: 模型要预测的下一个单词

下面我们举一个例子来说明训练的过程:

这里写图片描述
这里写图片描述

我们希望根据, 当前局部摘要序列yc\textbf{y}_c和全部的正文信息x\textbf{x}, 来预测下一个单词yi+1\textbf{y}_{i+1}. 我们希望模型预测下一个单词为yi+1\textbf{y}_{i+1}的概率最大, 并且希望所有单词都尽可能的预测准确, 在公式上表现为∑N−1i=0logp(yi+1|x,yc;θ)\sum_{i=0}^{N-1}\log p(\textbf{y}_{i+1}|\textbf{x},\textbf{y}_c;\theta)最大. 窗口CC会从摘要的起始位置滑动到终止位置, 当i<Ci<C时, yc\textbf{y}_c超出摘要的部分用起始符号<s>来补全. 我们感兴趣的分布p(yi+1|x,yc;θ)p(\textbf{y}_{i+1}|\textbf{x},\textbf{y}_c;\theta)是基于输入语句xx的条件语言模型. 这里我们直接将原始的分布, 参数化为一个神经网络. 这个神经网络既包括了一个神经概率语言模型(neural probabilistic language model), 也包括了一个编码器(这个编码器就是一个条件摘要模型). 通过包含编码器并且联合训练这两个组块, 我们根据当前yc\textbf{y}_c对x\textbf{x}的不同内容投入不同的关注度, 进而的到更好的结果. 模型结构如下图所示:

这里写图片描述
这里写图片描述
  • 模型整体的网络结构图(具有一个额外的编码器单元): 右侧分支: 仅根据当前的序列yc\textbf{y}_c预测下一个单词是yi+1\textbf{y}_{i+1}的概率, E\textbf{E}是词嵌入, ỹ ′c\tilde{\textbf{y}}'_c -> h\textbf{h}包括加权和激活函数的操作. 左侧分支: 使用yc\textbf{y}_c和x\textbf{x}生成隐层的下一个输出, yc\textbf{y}_c会对encoder产生影响, 让encoder更多的关注x\textbf{x}中与yc\textbf{y}_c有关的内容. 联合输出: 最终结合右侧的神经语言模型和左侧attention-based编码器的输出, 求下一个词是yi+1\textbf{y}_{i+1}的概率.
  • 基于注意力模型的编码器enc31的网络结构图: 左侧分支: F\textbf{F}是词嵌入矩阵, x̃ \tilde{\textbf{x}} -> x¯\bar{\textbf{x}}是做了一下平滑处理. 右侧分支: G\textbf{G}是词嵌入矩阵, 根据当前的y′c\textbf{y}'_c, 对x̃ \tilde{\textbf{x}}的不同位置投入不同的注意力, 并形成一个加权向量. 联合输出: 此时p\textbf{p}已经携带了注意力的信息, 用p\textbf{p}对平滑后的x¯\bar{\textbf{x}}再做加权, 得到encoder的输出. 下面两幅图分别是对整体结构和编码器结构的展开:
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

感兴趣的同学可以结合原文中的公式理解: 上图(a)中对应的公式:

p(yi+1|x,yc;θ)∝exp(Vh+Wenc(x,yc)),yc~=[Eyi−C+1,...,Eyi],h=tanh(Uyc~)

p(\textbf{y}_{i+1}|\textbf{x},\textbf{y}_c;\theta) \propto \exp(\textbf{V}\textbf{h}+\textbf{W}enc(\textbf{x},\textbf{y}_c)),\\ \tilde{\textbf{y}_c} = [\textbf{E}\textbf{y}_{i-C+1},...,\textbf{E}\textbf{y}_{i}],\\ \textbf{h} = \tanh(\textbf{U}\tilde{\textbf{y}_c}) 参数是: θ=(E,U,V,W),\theta = (\textbf{E},\textbf{U},\textbf{V},\textbf{W}), E∈ℝD×V\textbf{E}\in \mathbb{R}^{D\times V}, 是一个词嵌入矩阵; U∈ℝ(CD)×H,V∈ℝV×H,W∈ℝV×H\textbf{U}\in \mathbb{R}^{(CD)\times H}, \textbf{V}\in \mathbb{R}^{V\times H}, \textbf{W}\in \mathbb{R}^{V\times H}, 是权重矩阵. 上图(b)中对应的公式:

enc3(x,yc)=pTx¯,p∝exp(x̃ Pyc~′),x̃ =[Fx1,...,FxM],yc~′=[Gyi−C+1,...,Gyi],∀i,x¯i=∑q=i−Qi+Qx̃ i/Q

enc3(\textbf{x},\textbf{y}_c) = \textbf{p}^T\bar{ \textbf{x}},\\ \textbf{p}\propto\exp(\tilde{\textbf{x}}\textbf{P}\tilde{\textbf{y}_c}'),\\ \tilde{\textbf{x}}=[\textbf{F}\textbf{x}_1,...,\textbf{F}\textbf{x}_M],\\ \tilde{\textbf{y}_c}'=[\textbf{G}\textbf{y}_{i-C+1},...,\textbf{G}\textbf{y}_{i}],\\ \forall{i}, \bar{ \textbf{x}}_i = \sum_{q=i-Q}^{i+Q}\tilde{ \textbf{x}}_i/Q 这里G∈ℝD×V\textbf{G}\in\mathbb{R}^{D\times V}是一个内容的嵌入, P∈ℝH×(CD)\textbf{P}\in\mathbb{R}^{H\times (CD)}是一个新的权重矩阵参数, QQ是一个平滑窗口. Mini-batch训练 这个模型是纯数据驱动的, 只要给它{正文: 摘要}训练集就能完成训练. 一旦我们已经定义了局部条件模型p(yi+1|x,yc;θ)p(\textbf{y}_{i+1}|\textbf{x},\textbf{y}_c;\theta), 我们就能估计参数来最小化摘要集合的负对数似然函数. 假设训练集由JJ个输入-摘要对组成(x(1),y(1)),...,(x(J),y(J))(\textbf{x}^{(1)},\textbf{y}^{(1)}),...,(\textbf{x}^{(J)},\textbf{y}^{(J)}). 负对数似然函数作用到摘要的每一个词, 即

NLL(θ)=−∑j=1Jlogp(y(j)|x(j);θ)=−∑j=1J∑i=1N−1logp(y(j)i+1|x(j),yc;θ)

\textrm{NLL}(\theta)=-\sum_{j=1}^J\log p(\textbf{y}^{(j)}| \textbf{x}^{(j)}; \theta)=-\sum_{j=1}^J\sum_{i=1}^{N-1}\log p(\textbf{y}_{i+1}^{(j)}|\textbf{x}^{(j)},\textbf{y}_c;\theta) 我们通过使用mini-batch和随机梯度下降最小化NLL.

2.2 Beam Search生成摘要(decode)

我们现在回到生成摘要的问题. 回顾前面, 我们的目标是找到:

y∗=argmaxy∈∑i=0N−1logp(yi+1|x,yc;θ)

\textbf{y}^* = \arg\max_{\textbf{y}\in \mathcal{Y}}\sum_{i=0}^{N-1}\log p(\textbf{y}_{i+1}|\textbf{x},\textbf{y}_c;\theta) \mathcal{Y}是长度为NN的序列y\textbf{y}组成的集合, 如果字典中的单词数量是VV的话, 我们要生成的这个摘要就有VNV^N种可能性. 因为我们这里已经做了处理, 只根据前面的CC个已经预测出的单词yc\textbf{y}_c来预测下一个词yi+1\textbf{y}_{i+1}. 这样算法复杂度变成了O(NVC)O(NV^C). 但是即使是这样, 这个算法也太复杂了. 使用维特比译码需要O(NVC)O(NV^C).复杂度获得精确的解. 然而在实际中VV太大使得问题难解. 一个替代方法是使用贪婪解来近似获得argmax, 只保证每次前进的一小步是概率最大的. 在精确解和贪婪解方法之间取一个折中, 就是beam-search束搜索解码器(Algorithm1), 它在保持全量字典VV的同时, 在输出摘要的每一个位置上将自己限制在KK个潜在的假设内. 这种beam-search方法在神经机器翻译模型NMT也很常用. Beam search算法展示如下:

这里写图片描述
这里写图片描述

参数说明: NN: 摘要的长度 KK: beam的尺寸 VV: 字典里所有单词的数量 CC: 关注的词序列的长度

Beam search案例

下面举一个简单的例子来说明beam search算法的运行过程. 在这个例子里, 摘要长度N=4N=4, beam的大小K=6K=6, 注意力窗口大小C=2C=2, 模型最理想的结果是‘i am a chinese’. Beamsearch的每一次迭代都从字典VV里找KK个最大的可能.

这里写图片描述
这里写图片描述

Step1: 预测前CC个词的时候窗口溢出的部分需要进行padding操作, 预测第1个词的时候我们选出KK个词符.

这里写图片描述
这里写图片描述

Step2: 预测第2个词的时候, 我们选出新的K个词符, 对应K条备选路径. 前一阶段概率低的路径和词符, 被抛弃掉.

这里写图片描述
这里写图片描述

Step3: 重复前面的过程.

这里写图片描述
这里写图片描述

Step4: 每次beam search不一定能选出不同的K个词, 但是每次beam search都找到最优的前K个路径, 路径可以有重叠.

这里写图片描述
这里写图片描述

Step5: 迭代N次, 最终选出可能性最大的一条词序列路径

这里写图片描述
这里写图片描述

下面是对Beam Search算法的详细分析, 对原文的Algorithm 1逐条进行解释.

Beam Search算法分析
  1. π[0]\pi[0]是可以用规定好的起始符号<s>来初始化. 在训练和生成摘要时, 窗口QQ和CC沿着文本滑动如果超出范围, 用起始符号<s>做padding.
  2. 如果模型是abstraction-based, 输出y\textbf{y}的备选集合是整个字典, 如果希望摘要的单词全部从原文中抽取, 那么词典由输入正文x\textbf{x}的所有单词构成.
  3. 我们会设定一个最大输出长度NN, 算法会进行NN轮迭代.
    1. 现已有KK个假设, 每一个假设都对应一条路径; 对每一个假设, 我们从字典SS(有VV个单词)中选出KK个单词作为备选.
    2. 在字典中寻找, 搜索其他单词, 如果计算的到的state值比当前集合中的任意一个大, 就把它保留下来.
    3. 当每一个假设都遍历完整个字典SS, 就会产生K×KK\times K条路径, 我们在这些路径中选择概率最大的KK个路径作为下一次迭代的基础.(每一条路径都保留了之前i−1i-1个节点对应的单词)
  4. 当NN次迭代进行完后, 我们只剩下了KK条路径, 最后在从这其中选出1条概率最大的即可.
  5. 路径所经历的所有节点即为摘要的单词. 如果这中间遇到了停止符<e>, 摘要就是从<s><e>, 如果没有<e>出现, 摘要的最大长度就是NN.

Beam Search的运算复杂度从O(NVC)O(NV^C)变成了O(KNV)O(KNV), 因为V>>NV>>N和KK, 加速效果非常显著. 束搜索依据已经计算好的路径以及当前的VV个备选值, 计算出最优的KK的值. 最新的KK个最优值都保留着相应路径上之前的所有的节点.

3 TensorFlow程序实战

NAM模型的程序最早是由facebook开源的torch版本的程序. 最近谷歌开源了TensorFlow版本的摘要生成程序textsum, Github上的项目. textsum的核心模型就是基于注意力的seq2seq(sequence-to-sequence)模型, textsum使用了LSTM和深度双向RNN. Github上的textsum首页给出了此项目在Bazel环境下的运行方式. 如果你不想通过Bazel运行, 你可以直接在seq2seq_attention.py中设定运行参数. 设定完参数后, 直接运行python seq2seq_attention.py即可. 参数设定如下图所示:

这里写图片描述
这里写图片描述

除了上述项目运行时所需的必要参数, 模型参数也在seq2seq_attention.py中设定, 如下图所示, 包括学习率, 最小学习率(学习率会衰减但不会低于最小学习率), batch size, train模式encoder的RNN层数, 输入正文词汇数上限, 输出摘要词汇数上限, 最小长度限制, 隐层节点数, word embedding维度, 梯度截取比例, 每一个batch随机分类采样的数量.

这里写图片描述
这里写图片描述

git项目textsum给的toy数据集太小, vocab也几乎不可用(一些常见的单词都没有覆盖到). 如果希望获得好的效果, 需要自己整理可用的数据集. 主要文件说明: - seq2seq_attention.py: 主程序, 选择程序的运行模式, 设定参数, 建立模型, 启动tensorflow - seq2seq_attention_model.py: 建立attention-based seq2seq model, 包括算法的encoder, decoder和attention模块, 都在Seq2SeqAttentionModel中完成. - seq2seq_attention_decode.py: 读取数据, 调用beam_search解码 beam_search.py: beam search算法的核心程序

textsum程序解析

Google开源的textsum项目的具体算法是基于Hinton 2014年的Grammar as a Foreign Language这篇论文, 下面给出textsum工程中attention-based seq2seq模型的整体结构图, 图中所使用的名字与程序中的变量名一致, Seq2SeqAttentionModel是一个类, 定义在seq2seq_attention_model.py中; attention_decoder是一个函数, 定义在/tensorflow/contrib/legacy_seq2seq/python/ops/seq2seq.py中. 为了方便理解, 简单解释一下图中出现的符号,

这里写图片描述
这里写图片描述

第一个符号表示从x1,x2到y的线性变换, 红色变量是训练过程要学习出来的.

这里写图片描述
这里写图片描述

attention机制比较复杂也比较重要, 我们对这部分细化一下来看. attention decoder结构图如下:

这里写图片描述
这里写图片描述

下图是对attention模块的细化:

这里写图片描述
这里写图片描述

符号说明:

这里写图片描述
这里写图片描述

为什么attention这个模块会起到效果呢? 因为attention模块会根据decoder当前时刻的LSTM单元的状态, 来调整对attention_states(encoder输出)的注意力. Attention_states不同位置获得的关注不一样. 这样我们就更大程度地, 关注了原文中, 对当前输出更为有用的信息, 输出结果也就更准确了. Attention模块输出结果和decoder模块原本的输出联合起来, 得到最终的输出结果.

  1. Rush在他的论文中提到了Bag-of-Words, Convolutional和Attention-Based三种编码器, 这里重在强调第三种.
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017年04月05日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 相关背景
  • 2 算法原理
    • 2.1 模型训练(train)
      • 2.2 Beam Search生成摘要(decode)
        • Beam search案例
        • Beam Search算法分析
    • 3 TensorFlow程序实战
      • textsum程序解析
      相关产品与服务
      机器翻译
      机器翻译(Tencent Machine Translation,TMT)结合了神经机器翻译和统计机器翻译的优点,从大规模双语语料库自动学习翻译知识,实现从源语言文本到目标语言文本的自动翻译,目前可支持十余种语言的互译。
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档