腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
BERT
模型
如何
选择
标签
排序
?
、
、
、
第一个值是否对应于
标签
1(包含AE),因为它首先出现在数据集中或
标签
0中。任何帮助都将不胜感激。
浏览 89
提问于2021-04-21
得票数 1
回答已采纳
1
回答
当我有没有
标签
的文本文档数据集时,
如何
使用
BERT
的微调?
、
、
、
我对使用
BERT
进行各种NLP/文本挖掘任务有了基本的了解。当谈到伯特的微调时,我总是看到微调是使用一些分类任务来执行的。那么,当我有一组完全没有
标签
的文档时,我应该
如何
改进
BERT
模型
给出的单词/句子嵌入向量?我知道,
BERT
模型
最初是针对没有
标签
的数据进行培训的,所以必须有一些方法。
浏览 0
提问于2020-05-27
得票数 2
1
回答
使用与
BERT
兼容的静态嵌入
、
、
、
我有一个话语数据集和相应的情感
标签
。我想使用情感
标签
的嵌入作为
BERT
的额外输入(为了简化事情,您可以说我希望初始化我的
BERT
模型
中的一些令牌的嵌入)。有6-7个独特的
标签
。我计划使用像GloVe这样的静态嵌入来将
标签
映射到嵌入,但这将与
BERT
不兼容,后者期望输入嵌入大小为768。
如何
生成
标签
的静态嵌入?
浏览 3
提问于2022-03-22
得票数 0
1
回答
基于大型语料库的Word2Vec文本分类
、
、
、
、
我需要对专利进行分类,但我只标注了其中的几个,为了提高我的ML
模型
的性能,我想使用大量的专利来增加我的
模型
的语料库/词汇量。问题是,一旦我训练了我的单词嵌入功能,
如何
使用这个更大的语料库与我的训练数据-我的
标签
数据?你对怎么做有什么建议吗?抢夺
浏览 0
提问于2020-07-15
得票数 1
回答已采纳
1
回答
用Keras和Python创建NER
模型
、
、
我做了一个Keras
模型
来检测字符串值是Address,Company还是Date。我只使用了不同的公司名称,不同的日期共振峰和不同的街道地址进行培训。是否可以使用该
模型
来检测字符串(地址、公司或日期)在较大文本中的位置?我认为这种
模型
被称为NER
模型
(命名实体识别)。 我的
模型
接受字符串输入,并决定它是公司、个人还是地址。
如何
检测" Amazon“的开始索引和结束索引,或者
如何
从该文本中仅提取Amazon?因此,我想要:{"company"
浏览 4
提问于2021-03-27
得票数 3
2
回答
如何
使用预训练的
BERT
模型
进行下一句标注?
、
、
我使用
BERT
预训练
模型
:https://github.com/google-research/
bert
我运行了extract_features.py示例,如在readme.md中提取功能段落中所述。伙计们,
如何
转换结果,我在extract_features.py中得到了,以获得下一个
标签
/不是下一个
标签
? 我想运行
bert
来检查两个句子是否相关,并查看结果。 谢谢!
浏览 21
提问于2019-01-19
得票数 1
回答已采纳
1
回答
在没有任何
标签
数据的情况下,在web上对文档进行
排序
、
、
、
、
我想要创建一个文档
排序
模型
,该
模型
在dataset中为一个示例查询返回类似的行。该语料库中的文本是标准英语,但没有任何
标签
(即没有查询相关的文档结构)。是否有可能使用在大型语料库(如
bert
或word2vec)上训练过的预先训练过的
模型
,并在未进行任何评估的情况下将其直接用于被刮过的数据集并获得良好的结果?如果不是这样,在MS宏数据集上训练一个
模型
并将其应用于这个语料库是否值得探索?
浏览 0
提问于2021-07-06
得票数 1
1
回答
如何
使用
BERT
模型
来预测与没有
标签
的数据集的句子语义相似度?
、
、
、
我是一个使用
BERT
模型
的初学者。我正在关注来自Keras网站https://keras.io/examples/nlp/semantic_similarity_with_
bert
/#:~:text=Introduction,sentence但他们在示例中使用的数据集具有
标签
变量(‘相似度’)。是否有任何教程或指南使用
BERT
模型
来预测与只有文本列的数据的语义相似度?
浏览 51
提问于2021-04-06
得票数 0
2
回答
BERT
作为特征提取器与微调
BERT
层固定的区别
、
、
、
据我所知,利用
BERT
进行某些NLP分类任务有两种方法:
BERT
可以执行“特征提取”,其输出将进一步输入到另一个(分类)
模型
中。另一种方法是微调一些文本分类任务的
BERT
,方法是在预培训的
BERT
中添加一个或多个输出层,并对整个过程进行再培训(有不同数量的
BERT
层固定)。但是,如果在第二种情况下,我们修复了所有的层,并且添加了分类
模型
中的所有层,那么第一种和第二种方法实际上是相同的,对吗?
浏览 0
提问于2020-03-26
得票数 1
1
回答
Huggingface中的过度拟合
、
、
我正在使用Huggingface的TFBertForSequenceClassification进行多
标签
tweets分类。在训练过程中,
模型
存档精度较好,但验证精度较差。模式如下:config = BertConfig.from_pretrained("
bert
-base-uncased", hidden_dropout_prob=0.5, num_labels=13)
bert
_model = TFBertFo
浏览 0
提问于2020-06-23
得票数 1
1
回答
问答中的问题生成+NLP
、
、
、
我可以用AllenAI做答案生成,但不确定
如何
生成问题?我尝试了一个,但它看起来不完整,需要更多的努力,因为我是NLP或ML的新手,所以不知道
如何
进行这些更改。 在回答问题时有什么帮助吗?我可以在现有的语言
模型
(如spacy
模型
)的基础上创建任何
模型
来生成实体,然后生成问题吗?
浏览 3
提问于2019-11-11
得票数 2
3
回答
如何
在没有IOB
标签
的情况下用拥抱面板的变压器管道重建文本实体?
、
、
、
、
然而,它正在返回实体
标签
的内部-外部开始(IOB)格式,但.因此,我无法将管道的输出映射回我的原始文本。此外,输出以
BERT
令牌化格式掩蔽(默认
模型
为
BERT
-large)。例如:nlp_
bert
_lg = pipeline('ner'){'w
浏览 8
提问于2020-03-30
得票数 9
回答已采纳
1
回答
如何
微调
BERT
模型
?
、
、
def __init__(self, freeze_
bert
=False): @param
bert
: a BertModel objectto fine-tune the
BERT
model super(BertClassifier, self).D_in, H, D_out = 768, 50, 2
浏览 10
提问于2021-03-11
得票数 0
1
回答
如何
加载部分预训练的pytorch
模型
?
、
、
、
、
我正在尝试让pytorch
模型
运行在句子分类任务上。不幸的是,ClinicalBert
模型
只将文本分类为1个二进制
标签
,而我有281个二进制
标签
。因此,我正在尝试实现此代码https://github.com/kaushaltrivedi/
bert
-toxic-comments-multilabel/blob/master/toxic-
bert
-multilabel-classification.ipynb,其中<em
浏览 94
提问于2020-04-14
得票数 6
3
回答
微调
BERT
的最后x层
、
、
、
我试着微调
BERT
只在特定的最后一层(比方说最后三层)。我想使用谷歌Colab进行TPU培训。我使用hub.Module加载
BERT
并对其进行微调,然后将微调后的输出用于我的分类任务。
bert
_module = hub.Module(
BERT
_MODEL_HUB, tags=tags, trainable=True) hub.Module可以
选择
将
模型
设置为可训练或不可训练,但不能将其设置为部分可训练(仅特定层) 有人知道
如何
使用hub.Module训练最后1、2或3层
浏览 67
提问于2019-05-08
得票数 2
1
回答
在文章没有
标签
或预期输出摘要的情况下,使用
BERT
进行文章摘要
、
、
、
我正在做一个项目,其中我有一些限制,我不能使用提取方法来总结一篇文章,因此必须使用
BERT
。如果这是一个
标签
问题(总结推文、评论、问题),其中我有训练数据的相应
标签
,我会使用
BERT
中的向量作为LSTM的Keras嵌入层的输入,并构建一个具有输入和输出
标签
的
模型
。但问题是,我必须总结文本,而不是贴上
标签
的推文和评论。当我有与词汇表相对应的向量时,有没有办法(我确定有,因为我被问得很明确)可以使用
BERT
?
浏览 3
提问于2020-01-21
得票数 0
1
回答
为什么
BERT
模型
必须保持10%的掩码标记不变?
、
、
我正在读
BERT
模型
论文。在预训练
BERT
模型
的掩蔽语言
模型
任务中,本文表示
模型
将随机
选择
15%的令牌。在
选择
的标记( Ti )中,80%将被替换为掩码标记,10%的Ti保持不变,10%的Ti将替换为另一个单词。我认为
模型
只需要替换为掩码或其他单词就足够了。为什么
模型
必须随机
选择
一个单词并保持不变?
浏览 151
提问于2020-09-23
得票数 2
回答已采纳
1
回答
使用像
BERT
这样的预训练
模型
进行文档分类
、
、
、
我可以使用
BERT
(对于单词>500的文档)来实现这一点吗?或者是否有其他
模型
可以有效地完成这项任务?
浏览 7
提问于2021-02-10
得票数 1
1
回答
具有列车、开发、测试、预测模式的
BERT
、
我正在和
BERT
一起做一个文本分类任务。我基本上是在使用。这段代码使用train.tsv和dev.tsv (有
标签
)来微调
BERT
,使用test.tsv (没有
标签
)来进行预测。但是,我需要使用train-dev-test拆分来训练
模型
(train set),计算超参数和损失函数(dev set),并评估性能(test set)。与常规的训练-开发-测试拆分一样,所有拆分都包括
标签
。我还有第四个未标记的数据集可以进行预测。你知道有哪个仓库实现了4种模式的
BERT
(训练
浏览 3
提问于2020-03-12
得票数 0
1
回答
Bert
单词嵌入的微调
、
、
、
、
我想加载一个预训练的
Bert
模型
,并使用自定义数据集对其进行微调,特别是
模型
的单词嵌入。任务是使用所选单词的单词嵌入进行进一步分析。值得一提的是,数据集由tweet组成,没有
标签
。因此,我使用了BertForMaskedLM
模型
。 此任务是否可以使用输入ids (标记化的tweet)作为
标签
?我没有
标签
。只有一些推文是随机排列的。从这一点开始,我给出了我写的代码: 首先,我清除了数据集中的表情符号、非ASCII码字符等,如以下链接(2.3节)所述:https:/
浏览 56
提问于2020-10-01
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券