前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >《自然语言处理实战入门》深度学习 ---- 预训练模型的使用 使用bert 进行文本分类(ALBERT)

《自然语言处理实战入门》深度学习 ---- 预训练模型的使用 使用bert 进行文本分类(ALBERT)

作者头像
流川疯
发布2021-12-06 16:04:19
7580
发布2021-12-06 16:04:19
举报
文章被收录于专栏:流川疯编写程序的艺术

文章大纲

bert 简介

bert模型是Google在2018年10月发布的语言表示模型,Bert在NLP领域横扫了11项任务的最优结果,可以说是现今最近NLP中最重要的突破。Bert模型的全称是Bidirectional Encoder Representations from Transformers,是通过训练Masked Language Model和预测下一句任务得到的模型。

在这里插入图片描述
在这里插入图片描述

本质上来说,Transformer就是一个只由attention机制形成的encoder-decoder结构。

对于文本分类任务,一个句子中的N个字符对应了E_1,…,E_N,这N个embedding。文本分类实际上是将BERT得到的T_1这一层连接上一个全连接层进行多分类。

Bert作为强有力的预训练模型,用作下游任务的常见手段包括: (1)作为特征提取器; (2)fine-tune; (3)直接pre-train

bert 文本分类参考流程

在这里插入图片描述
在这里插入图片描述

albert 简介

在这里插入图片描述
在这里插入图片描述

参考文献

ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS

albert_zh

http://www.chinadatavalley.com/system/2020/04/22/030455155.shtml

  • https://zhuanlan.zhihu.com/p/139174525

笔者准备尝试下百度的https://github.com/PaddlePaddle/LARK/tree/develop/ERNIE,其考虑了中文的词语信息,更适合中文场景,BERT只能进行纯字的embedding在中文场景效果提升有限。

苏剑林大神的预训练简介系列:

  • 使用keras-bert实现文本多标签分类任务
  • https://blog.csdn.net/jclian91/article/details/111783250

pytorch bert:

  • https://github.com/songyingxin/Bert-TextClassification

使用Bert预训练模型文本分类(内附源码)机器之心

  • https://www.jiqizhixin.com/articles/2019-03-13-4

如何用 Python 和 BERT 做中文文本二元分类?(王树义老师 google colab)

  • https://zhuanlan.zhihu.com/p/61671334 王树义老师对bert 的封装:
  • https://github.com/wshuyi/demo-chinese-text-binary-classification-with-bert/blob/master/demo_chinese_text_binary_classification_with_bert.ipynb

文本分类大比拼:

  • https://github.com/brightmart/text_classification
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021/06/20 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 文章大纲
  • bert 简介
    • bert 文本分类参考流程
    • albert 简介
    • 参考文献
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档