我对序列分类的BERT进行了微调,在任务特定的情况下,我想应用LIME解释来查看每个标记如何被归类为特定的标签,因为LIME处理分类器作为黑盒。我从可用的在线代码中生成了一个组合代码,如下所示: # coding=utf-8
# Copyright 2018 The Google AI Language Tea
我想用huggingface做中文文本相似度: tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')
model = TFBertForSequenceClassification.from_pretrained('bert-base-chinese') 它不工作,系统报告错误: Some weights of the model checkpoint at bert-base-chinese were not但
我做了一个Keras模型来检测字符串值是Address,Company还是Date。我只使用了不同的公司名称,不同的日期共振峰和不同的街道地址进行培训。Default is to drop untransformed columns
这是我的模型是否可以使用该模型来检测字符串(地址、公司或日期)<em