作者 | Don.hub 整理 | NewBeeNLP
ERNIE: Enhanced Representation through Knowledge Integration[1] 是百度在2019年4月的时候,基于BERT模型,做的进一步的优化,在中文的NLP任务上得到了state-of-the-art的结果。
它主要的改进是在mask的机制上做了改进,它的mask不是基本的word piece的mask,而是在pretrainning阶段增加了外部的知识,由三种level的mask组成,分别是basic-level masking(word piece)
+ phrase level masking(WWM style)
+ entity level masking
。在这个基础上,借助百度在中文的社区的强大能力,中文的ernie还是用了各种异质(Heterogeneous)的数据集。此外为了适应多轮的贴吧数据,所有ERNIE引入了DLM (Dialogue Language Model) task。
百度的论文看着写得不错,也很简单,而且改进的思路是后来各种改进模型的基础。例如说Masking方式的改进,让BERT出现了WWM的版本,对应的中文版本(Pre-Training with Whole Word Masking for Chinese BERT[2]),以及 facebook的SpanBERT[3]等都是主要基于masking方式的改进。
但是不足的是,因为baidu ernie1.0只是针对中文的优化,导致比较少收到国外学者的关注,另外百度使用的是自家的paddle paddle机器学习框架,与业界主流tensorflow或者pytorch不同,导致受关注点比较少。
「Inituition」: 模型在预测未知词的时候,没有考虑到外部知识。但是如果我们在mask的时候,加入了外部的知识,模型可以获得更可靠的语言表示。
例如:哈利波特是J.K.罗琳写的小说。单独预测
哈[MASK]波特
或者J.K.[MASK]琳
对于模型都很简单,但是模型不能学到哈利波特
和J.K. 罗琳
的关系。如果把哈利波特
直接MASK掉的话,那模型可以根据作者,就预测到小说这个实体,实现了知识的学习。
需要注意的是这些知识的学习是在训练中隐性地学习,而不是直接将外部知识的embedding加入到模型结构中(ERNIE-TsingHua[4]的做法),模型在训练中学习到了更长的语义联系,例如说实体类别,实体关系等,这些都使得模型可以学习到更好的语言表达。
首先我们先看看模型的MASK的策略和BERT的区别。
ERNIE的mask的策略是通过三个阶段学习的,在第一个阶段,采用的是BERT的模式,用的是basic-level masking,然后在加入词组的mask(phrase-level masking), 然后在加入实体级别entity-level的mask。如下图
不同mask的效果
训练集包括了
对话的数据对语义表示很重要,因为对于相同回答的提问一般都是具有类似语义的,ERNIE修改了BERT的输入形式,使之能够使用多轮对话的形式,采用的是三个句子的组合[CLS]S1[SEP]S2[SEP]S3[SEP]
的格式。这种组合可以表示多轮对话,例如QRQ,QRR,QQR。Q:提问,R:回答。为了表示dialog的属性,句子添加了dialog embedding组合,这个和segment embedding很类似。
在贴吧中多轮对话数据外都采用的是普通的NSP+MLM预训练任务。NSP任务还是有的,但是论文中没写,但是git repo中写了用了。
最终模型效果对比bert
ERNIE 2.0: A Continual Pre-Training Framework for Language Understanding[5] 百度ERNIE2.0 的出现直接刷榜了GLUE Benchmark。
「Inituition」:就像是我们学习一个新语言的时候,我们需要很多之前的知识,在这些知识的基础上,我们可以获取对其他的任务的学习有迁移学习的效果。我们的语言模型如果增加多个任务的话,是不是可以获得更好的效果?事实上,经发现,ernie1.0 +了DLM任务以及其他的模型,例如Albert 加了sentence order prediction(SOP)任务之后或者SpanBERT: Improving Pre-training by Representing and Predicting Spans[6]在加上了SBO目标之后 ,模型效果得到了进一步的优化,同时MT-DNN[7]也证明了,在预训练的阶段中加入直接使用多个GLUE下游任务(有监督)进行多任务学习,可以得到state-of-the-art的效果。
于是科学家们就在想那一直加task岂不是更强?百度不满足于堆叠任务,而是提出了一个持续学习的框架,利用这个框架,模型可以持续添加任务但又不降低之前任务的精度,从而能够更好更有效地获得词法lexical,句法syntactic,语义semantic上的表达。
百度的框架提出,主要是在ERNIE1.0的基础上,利用了大量的数据,以及先验知识,然后提出了多个任务,用来做预训练,最后根据特定任务finetune。框架的提出是针对life-long learning的,即终生学习,因为我们的任务叠加,不是一次性进行的(Multi-task learning),而是持续学习(Continual Pre-training),所以必须避免模型在学了新的任务之后,忘记旧的任务,即在旧的任务上loss变高,相反的,模型的表现应该是因为学习了的之前的知识,所以能够更好更快的学习到现有的任务。为了实现这个目的,百度提出了一个包含pretraining 和fine-tuning的持续学习框架。
在模型预训练完成之后,可以根据特定任务进行finetuning,这个和BERT一样。
为了验证框架的有效性,ERNIE2.0 用了多种任务,训练了新的ERNIE2.0模型,然后成功刷榜NLU任务的benchmark,GLUE(截止2020.01.04)。百度开源了ERNIE2.0英文版,但是截至目前为止,还没有公开中文版的模型。
模型的结构和BERT一致,但是在预训练的阶段,除了正常的position embedding,segment embdding,token embedding还增加了「task embedding」。用来区别训练的任务, 对于N个任务,task的id就是从0~N-1,每个id都会被映射到不同的embedding上。模型的输入就是:
但是对于fine-tuning阶段,ernie 使用任意值作为初始化都可以。
ERNIE模型堆叠了大量的预训练目标。就好像我们学习英语的时候,我们的卷子上面,有多种不同的题型。
把一篇文章随机分为i = 1到m份,对于每种分法都有 种组合,所以总共有 种组合,让模型去预测这篇文章是第几种,就是一个多分类的问题。这个问题就能够让模型学到句子之间的顺序关系。就有点类似于Albert的SOP任务的升级版。
判断句子的语义关系例如logical relationship( is a, has a, contract etc.)
一个三分类的问题,预测query和网页标题的关系
度小满的风控召回排序提升25%
度小满的风控识别上:训练完的ernie上直接进行微调,直接预测有没有风险对应的结果,传统的缺点:需要海量的数据,而这些数据也很难抓取到的,抓取这些特征之后呢还要进行复杂的文本特征提取,比如说挖掘短信中银行的催收信息,对数据要求的量很高,对数据人工的特征的挖掘也很高。这两项呢造成了大量的成本,如今只需ernie微调一下,当时直接在召回的排序上得到25%的优化。这种场景的特点是什么?对于用户的实时性的需求不是很强,不需要用户输入一个字段就返回结果。只要一天把所有数据得到,跑完,得到结果就可以了,统一的分析就可以了,适合少数据的分析场景。
另外的一个场景需要非常高的性能优势的,采用的解决方案就是模型蒸馏,是搜索问答query识别和qp匹配,输入一个问题,得到答案,本质是文本匹配,实际是输入问题,把数据库中大量的候选答案进行匹配计算得分,把得分最高的返回。但是百度每天很多用户,很快的响应速度,数据量大,要求响应速度还快,这时候要求不仅模型特别准,而且还要特别快,怎么解决就是模型蒸馏,
推荐场景:是可以提前计算好,保存好的,可变的比较少,视频本身就是存好的,变化量不会很大,更新也不会特别频繁,离线把相似度计算好,保存起来就可以,两两计算之间的相似度计算量是非常大的,那么怎么减少计算量呢?使用了一个技术叫离线向量化,离线把视频和视频的相似度算好,然后存入数据库 N个视频俩俩计算 100万?
用户看的视频经过一个ERNIE 得到一个向量
候选集通过另外一个ERNIE(共享权重),得到一个向量,计算相似度
O(N)计算,之后再俩俩计算cos
wget --no-check-certificate https://baidu-nlp.bj.bcebos.com/ERNIE_stable-1.0.1.tar.gz
download traindata
wget --no-check-certificate https://ernie.bj.bcebos.com/task_data_zh.tgz
home=YOUR_ERNIE_PATH
export TASK_DATA_PATH=$home/glue_data_processed/
export MODEL_PATH=$home/model/
export TASK_DATA_PATH=YOUR_TASK_DATA_PATH
export MODEL_PATH=YOUR_MODEL_PATH
sh script/zh_task/ernie_base/run_ChnSentiCorp.sh
[1]
ERNIE: Enhanced Representation through Knowledge Integration: https://arxiv.org/pdf/1904.09223
[2]
Pre-Training with Whole Word Masking for Chinese BERT: https://arxiv.org/pdf/1906.08101
[3]
facebook的SpanBERT: https://arxiv.org/pdf/1907.10529
[4]
ERNIE-TsingHua: https://arxiv.org/pdf/1905.07129.pdf
[5]
ERNIE 2.0: A Continual Pre-Training Framework for Language Understanding: https://arxiv.org/pdf/1907.12412.pdf
[6]
SpanBERT: Improving Pre-training by Representing and Predicting Spans: https://arxiv.org/pdf/1907.10529.pdf
[7]
MT-DNN: https://arxiv.org/pdf/1901.11504.pdf
[8]
baidu offical video: http://abcxueyuan.cloud.baidu.com/#/play_video?id=15076&courseId=15076&mediaId=mda-jjegqih8ij5385z4&videoId=2866§ionId=15081&showCoursePurchaseStatus=false&type=免费课程
[9]
Life long learning: https://www.youtube.com/watch?v=8uo3kJ509hA
[10]
【NLP】深度剖析知识增强语义表示模型:ERNIE: https://mp.weixin.qq.com/s/Jt-ge-2aqHZSxWYKnfX_zg
- END -