前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >改进版 BERT 打败 XLNet ,Facebook 公布研究细节

改进版 BERT 打败 XLNet ,Facebook 公布研究细节

作者头像
AI科技评论
发布2019-08-06 17:34:31
7620
发布2019-08-06 17:34:31
举报
文章被收录于专栏:AI科技评论AI科技评论

去年 10 月,被誉为「最强 NLP 预训练模型」的 Bert 问世,横扫 11 项 NLP 任务记录。随后问世的 XLNet 打破了这些记录,在 20 项任务上全面超越 BERT。然而,不久前,Facebook 的最新成果,BERT 改进版本——RoBERTa 打败 XLNet 登上了 GLUE 排行榜榜首。

相关论文地址:

https://arxiv.org/pdf/1907.11692.pdf

GitHub 地址:

https://github.com/pytorch/fairseq/tree/master/examples/roberta

论文由 Facebook AI 和华盛顿大学共同完成,其摘要如下:

语言模型的预训练已经带来了显著的性能提升,但是仔细比较不同的方法是具有挑战性的。训练的计算代价很高,通常在不同的私有数据集上进行,我们将表明尺寸和超参数的选择对最终结果有重大影响。我们提出了对 BERT 预训练的复制研究,该研究仔细测量了许多关键超参数和训练数据大小对结果的影响。我们发现 BERT 明显缺乏训练,并且可以匹配或超过在此之后发布的每个模型的性能。我们最好的模型在 GLUE, RACE 和 SQuAD 上取得了最先进的成果。这些结果突出了以前被忽视的设计选择的重要性,并对最近报道的结果进步的来源提出了疑问。我们公布了我们的模型和代码。

论文的主要贡献是:

  1. 提出了一套重要的 BERT 设计选择和训练策略及其介绍;
  2. 使用了一个新的数据集 CCNEWS,并确认使用更多的数据进行预训练可以进一步提高下游任务的性能
  3. 文中的训练改进表明,在设计选择正确的情况下,遮蔽语言模型与所有其它最近提出的方法相比非常具有竞争力。

改进版 BERT,即 RoBERTa(Robustly Optimized BERT approach)重复了 BERT 的预训练过程,它和 BERT 的区别有以下几点:

  • 训练模型的时间更长
  • 对更多的数据进行更大的批处理
  • 删除下一句预测目标
  • 训练更长的序列
  • 以及动态地更改应用于训练数据的 masking 模式

如前文所述,该模型在 GLUE, RACE 和 SQuAD 上取得了最先进的成果。在参数 L = 24, H = 1024, A = 16, 355M 的情况下,作者在 BERT-large 结构上训练 RoBERTa,结果如下图所示:

在控制训练数据,可以观察到 RoBERTa 比最初报告的 BERT-large 的结果大大提升,这再次证明了设计选择的重要性。

然后,将此数据与另外三个附加数据集相结合,采用的训练步骤数量与之前相同(100k),总共预处理的文本超过 160GB。所有下游任务的提升,验证了预训练中的数据规模和多样性。

作者对 RoBERTa 进行了大量的预处理,将预训练的步骤数量从 100K 增加到 300K,然后再增加到 500K。可以看到下游任务的显著性能提升,在大多数任务中,300k 和 500k 训练步骤的模型优于 XLNetLarge。

还可以注意到的是,即便训练的时间再长也不会产生过拟合,而是可能会受益于额外的训练。作者发现模型训练的时间越长,性能就可以大大提高。

目前,他们还使用了一个新的数据集,并发布相关模型和预训练微调代码,可以点击打开以下网址查看:

https://github.com/pytorch/fairseq

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-08-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档