前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Paper | ACL2018 抽取式摘要之 NEUSUM

Paper | ACL2018 抽取式摘要之 NEUSUM

作者头像
用户3946442
发布2022-04-11 17:35:44
2940
发布2022-04-11 17:35:44
举报
文章被收录于专栏:程序媛驿站

论文题目:Neural Document Summarization by Jointly Learning to Score and Select Sentences.

论文作者:Qingyu Zhou, Nan Yang, Furu Wei, Shaohan Huang, Ming Zhou, Tiejun Zhao.

下载链接:https://aclweb.org/anthology/P18-1061

代码:https://github.com/magic282/NeuSum

来源:ACL 2018

分类:NLP / 文本摘要 / 抽取式摘要

太长不看版

本文提出了一种端到端的抽取式文本摘要模型(NEUSUM)。

该模型将选择策略集成到打分模型中,解决了此前抽取式文本摘要中句子打分和句子选择这两部分割裂的问题,端到端且不再需要人为干预。

并达到了 CNN/Daily Mail 数据集的 state-of-the-art。

主要思想

基于深度学习的抽取式摘要的方法基本分为以下四个步骤:句子编码、文章编码、句子打分、摘要选择。

这其中摘要选择部分的顺利进行依赖于句子可以很好的打分,然而在此前的研究方法句子打分与句子选择(即摘要选择)这两个环节常常被割裂开来。

本文针对这一现象,提出了一种端到端的抽取式文本摘要模型(NEUSUM),将选择策略集成到打分模型中,解决了此前抽取式文本摘要中句子打分和句子选择这两部分割裂的问题,端到端且不再需要人为干预并达到了 CNN/Daily Mail state-of-the-art

问题定义

抽取式摘要的目的在于抽取能够包含文章重要信息的句子,句子打分越高,其包含的信息越重要,越成为表示文章的摘要句。

本模型的训练目标即学到一个score function(打分函数)g,该函数目的是计算加入当前句子后生成的摘要能得到的ROUGE F1的收益。在测试时,模型在每一个 step t 选出能使打分函数 g 最高的句子。

公式中函数 r 即表ROUGE F1。S表示当前句子与已经选出的句子集合。在每一个时间步 t,模型会选出能够得到最大收益(即使函数 g 得到最大值的句子)直至达到摘要限制长度。

模型结构

基于深度学习的抽取式摘要的方法基本分为以下四个步骤:1.句子编码、2.文章编码、3.句子打分、4.摘要选择。

而在本文的模型中:

1-2)Document & Sentence Encoding:句子编码、文章编码使用BiGRU

3-4)Sentence Scoring and Selection:句子打分、摘要选择两部分融合到一起

融合到一起的好处:

a. 句子打分时可以看到前面句子的信息(前人方法的句子打分时句子间相对独立)

b. 打分函数 g 的存在简化了句子选择模块

句子打分的具体实现:

句子打分需要同时考虑当前句子的重要性和已经选出的summary,此处加入另一个GRU(公式10)。

然后在GRU之上连接句子打分器(scorer)。

The sentence scorer 是一个双层MLP,两个向量作为输入:current hidden ht 和 sentence vector si(公式11(有bias,为了简化在公式中省略)),计算得到的即为在 t 时刻所有句子的分数。

然后选择得分最高的句子作为时刻 t 模型选择的摘要句。

损失函数:

模型预测值 P 与标准值 Q 之间的数据分布差异我们使用KL散度进行计算,其中 P 分布的归一化计算公式:

Q 分布的计算公式:

Objective Function:KL-loss-function: J = DKL(P || Q) (20)

数据构建

CNN/Daily Mail 是人为标注的生成式摘要的数据集。本文构建抽取式摘要训练数据的方法是 maximizing the ROUGE-2 F1 score。

数据预处理部分(包括sentence splitting, word tokenization)参照See et al. (2017), 使用非匿名版本。

CNN/Daily Mail 数据集统计如下表:

实验结果:

结论

本文的方法与以前的方法最大的不同之处在于,它将句子评分和选择结合成一个阶段。

每次选择一个句子,根据已输出摘要和当前状态对句子进行评分。

最终的ROUGE评价结果表明,本文提出的联合评分和选择方法明显优于以往的分离方法。

译者:西柚媛

编辑:西柚媛

本文来自程序媛驿站,未经授权不得转载.

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-10-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 程序媛驿站 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档