前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【组队学习】Task03:学习BERT和GPT

【组队学习】Task03:学习BERT和GPT

作者头像
诡途
发布2022-01-07 08:20:11
2910
发布2022-01-07 08:20:11
举报
文章被收录于专栏:诡途的python路

组队学习资料:

datawhale8月组队学习

-基于transformers的自然语言处理(NLP)入门

Task03主要学习内容:

2.3-图解BERT.md

2.4-图解GPT.md

声明:NLP纯小白,本文内容主要是作为个人学习笔记,可能很多地方我自己理解也不是很到位,仅供参考,有争议的话可以多查点儿其他资料,并请评论区留言指正!谢谢

图解BERT

图解GPT

BERT使用基本思路

BERT开源github地址

基本使用思路:查找预训练好的模型,在别人已有模型基础上进行自主化训练

基于MRPC的BERT代码实现

篇章小测

1、问题4: BERT预训练时mask的比例,可以mask更大的比例吗?

2、问题5: BERT如何进行tokenize操作?有什么好处?

3、问题6: GPT如何进行tokenize操作?和BERT的区别是什么?

4、问题7: BERT模型特别大,单张GPU训练仅仅只能放入1个batch的时候,怎么训练?

其他参考资料

问题:AttributeError: module ‘tensorflow’ has no attribute ‘gfile’

import tensorflow 报错 as tf ImportError: DLL load failed

TensorFlow报错:AttributeError: module ‘tensorflow_core._api.v2.train’ has no attribute 'Optimizer‘

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021/08/20 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 组队学习资料:
  • 图解BERT
  • 图解GPT
  • BERT使用基本思路
  • 基于MRPC的BERT代码实现
  • 篇章小测
  • 其他参考资料
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档