前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >利用大模型打造文本摘要训练新范式

利用大模型打造文本摘要训练新范式

作者头像
圆圆的算法笔记
发布2023-08-17 08:40:52
1.3K0
发布2023-08-17 08:40:52
举报

1、文本摘要任务

文本摘要任务的目标是根据一个document,抽取或生成一段文本,用来描述document主体内容。文本摘要的解决方法主要包括抽取式和判别式两种类型。抽取式是一个判别任务,用序列标注的方式给文档的token进行打标,抽取关键部分作为摘要;生成式则是借助语言模型的生成能力,输入document后,直接生成一段摘要文本。

这篇文章主要讨论的是生成式文本摘要的方法,如何利用对比学习和大模型实现最新的生成式文本摘要训练范式。主要涉及两篇文章,一篇是BRIO: Bringing Order to Abstractive Summarization(2022),利用对比学习在生成模型中引入ranking任务;另一篇是On Learning to Summarize with Large Language Models as References(2023),在BRIO基础上进一步引入大模型生成高质量训练数据。

2、生成式文本摘要训练方法和问题

生成式文本摘要的训练一般采用极大似估计的方式。首先用一个Encoder对document进行编码,然后用一个Decoder递归的预测摘要中的每个文本,拟合的目标是一个人工构造的摘要标准答案。整个优化函数可以表示为如下形式,让每个位置生成文本的概率和标准答案最接近:

这种方式的问题在于,训练和下游实际任务并不一致。对于一个document,可以产生很多摘要,这些摘要的质量有好有坏。而MLE要求拟合的目标必须是唯一一个标准答案。这种gap也导致文本摘要模型无法比较好的评估两个质量不同摘要的好坏程度。例如在BRIO这篇论文中做了一个实验,一般的文本摘要模型在判断质量不同的两个摘要的相对顺序时,效果非常差。

3、生成模型引入排序对比学习

为了解决传统生成式文本摘要模型存在的问题,BRIO: Bringing Order to Abstractive Summarization(2022)提出在生成模型中进一步引入对比学习任务,提升模型对不同质量摘要的排序能力。

BRIO采用多任务的形式进行训练。第一个任务和传统生成式模型相同,也是MLE的方式拟合标准答案。第二个任务是一个对比学习任务,让一个预训练的文本摘要模型使用beam search生成不同的两个结果,使用ROUGE评估这两个生成结果和标准答案之间哪个更好,以确定这两个摘要的排序。这两个摘要结果输入到Decoder中,得到两个摘要的概率,通过对比学习loss让模型给高质量摘要更高的打分。这部分对比学习loss的计算方式如下:

4、大模型优化文本摘要

随着GPT等大模型的兴起,人们发现用大模型生成的摘要甚至比人工生成的质量还要好。这种情况下,使用人工生成的标准答案就限制了模型效果的天花板。因此On Learning to Summarize with Large Language Models as References(2023)提出使用GPT这种大模型生成训练数据,指导摘要模型学习。

这篇文章提出了3种利用大模型生成训练样本的方式。

第一种是直接使用大模型生成的摘要,替代人工生成的摘要,相当于直接用下游模型拟合大模型的摘要生成能力,训练方式仍然是MLE。

第二种方式为GPTScore,主要是利用预训练大模型对生成的摘要进行打分,以这个打分作为评估摘要质量的依据,然后使用类似BRIO中的方式进行对比学习训练。GPTScore是Gptscore: Evaluate as you desire(2023)中提出的一种基于大模型评估生成文本质量的方法。

第三种方式为GPTRank,这种方法让大模型对各个摘要进行排序而非直接打分,并让大模型对排序逻辑做出解释,以此获取更合理的排序结果。

5、总结

大模型在摘要生成上的能力得到越来越广泛的认可,因此利用大模型作为摘要模型拟合目标的生成器,取代人工标注结果,将成为未来的发展趋势。同时,利用排序对比学习进行摘要生成的训练,让摘要模型感知摘要质量,超越原本的点拟合,对于提升摘要模型效果也至关重要。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-06-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 圆圆的算法笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档