我是第一次运行一个用于文本分类的BERT模型。fastai.text import * from pytorch_pretrained_bert.modelingimport BertConfig, BertForSequenceClassification
from pytorch_pretrained_
给定一个情感分类数据集,我想对Bert进行微调。 正如你所知道的,BERT创造了预测下一个句子的方法,给定当前句子。因此,为了让网络意识到这一点,他们在第一句话的开头插入了一个[CLS]令牌,然后添加了[SEP]令牌来分隔第一句话和第二句话,最后在第二句话的末尾添加了另一个[SEP] (我不明白他们为什么要在末尾附加另一个令牌无论如何,对于文本分类,我在一些在线示例(参见BERT in Keras