前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >简单粗暴,容量大,效果好,1750亿参数的GPT-3

简单粗暴,容量大,效果好,1750亿参数的GPT-3

作者头像
mixlab
发布2020-06-04 17:16:37
1.3K0
发布2020-06-04 17:16:37
举报

据说需要耗费千万美元的资金才能训练一个gpt3

gpt-3使用的数据集容量达到了45TB,

gpt-3具有1750亿个参数,

一个gpt-3 模型可能需要要 700G的硬盘空间来存储。

近期大量研究工作表明,通过对大量文本进行预训练,并且针对特定任务进行微调,模型的性能可以在许多 NLP 任务以及基准测试中获得显著提升。

如上图所示,x轴的参数,参数数量级越大,准确率越高……

该研究使用了和 GPT-2 相同的模型和架构,包括改进的初始设置、预归一化和 reversible tokenization。

区别在于 GPT-3 在 transformer 的各层上都使用了交替密集和局部带状稀疏的注意力模式,类似于 Sparse Transformer

- Sparse Transformer

理解自然语言需要注意最相关的信息。例如,在阅读过程中,人们倾向于把注意力集中在最相关的部分来寻找问题的答案。然而,如果不相关的片段对阅读理解产生负面影响,就会阻碍理解的过程,而理解过程需要有效的注意力。

这一原理同样适用于自然语言的计算系统。注意力一直是自然语言理解和自然语言生成模型的重要组成部分。

因此,Sparse Transformer只关注k个贡献最大的状态。通过显式选择,只关注少数几个元素,与传统的注意方法相比,对于与查询不高度相关的值将被归0。

如上图所示,Sparse Transformer会把相关的信息处理成橙色部分,而蓝色的是传统注意力的做法(没有top k的概念)。原理图如下所示:

- 思考

学习了45TB的文本数据,掌握的文本规律足以超越目前所有的预训练模型。

但是,我在想一个问题,用足够大容量的模型,里面肯定学习到了很多冗余的规律

个人认为,算法的意义在于用足够小的参数,学习到更为普遍的规律

在实际解决问题上,确实,简单粗暴地堆量,自然就可以解决很多问题,这是量变引起质变的规律。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-05-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 无界社区mixlab 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档