腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1373)
视频
沙龙
1
回答
微调
特定
领域
的
Bert
(
无
监督
)
、
、
、
、
我想在与
特定
领域
(在我
的
例子中与工程相关)相关
的
文本上对
BERT
进行
微调
。训练应该是无人
监督
的
,因为我没有任何标签或任何东西。这个是可能
的
吗?
浏览 27
提问于2020-11-06
得票数 5
回答已采纳
1
回答
伯特只有在
微调
时才需要有
监督
的
数据吗?
、
、
、
、
我读过很多文章和论文,提到了如何进行
无
监督
的
培训,而培训前
的
伯特模型。我想知道是否有可能在没有
监督
的
情况下
微调
一个伯特模型,还是总是需要
监督
?
浏览 0
提问于2021-09-23
得票数 3
回答已采纳
1
回答
如何为
领域
特定
的
表征学习任务训练
bert
模型?
、
、
、
我正在尝试为一些
特定
类型
的
文本生成良好
的
句子嵌入,使用句子转换模型测试相似度,而使用kmeans进行聚类并不能给出好
的
结果。有什么需要改进
的
想法吗?我正在考虑在我
的
数据集上训练任何句子转换器模型(它们只是句子,但没有任何标签)。如何特别针对ny数据重新训练现有模型以生成更好
的
嵌入。谢谢。
浏览 5
提问于2020-12-08
得票数 0
1
回答
针对不同语言
的
特定
领域
微调
BERT
?
、
、
、
我想对一个预先训练好
的
BERT
模型进行
微调
。但是,我
的
任务使用
特定
领域
内
的
数据(比如生物医学数据)。此外,我
的
数据也是一种不同于英语
的
语言(比如荷兰语)。现在,我可以
微调
荷兰
bert
-base-荷兰案例预训练模型。然而,我该如何对生物医学
BERT
模型进行
微调
,比如BioBERT,它属于正确
的
领域
,但语言错误?我曾经考虑过使用NM
浏览 4
提问于2021-01-28
得票数 2
1
回答
仅针对嵌入
的
BERT
的
无
监督
微调
?
、
、
我想在未标记
的
数据上对
特定
领域
的
BERT
进行
微调
,并让输出层检查它们之间
的
相似性。我该怎么做呢?我是否需要首先
微调
分类器任务(或问题答案等)。然后拿到嵌入物?或者我可以只使用预训练
的
Bert
模型,而不使用任务,并使用我自己
的
数据进行
微调
?
浏览 2
提问于2020-04-22
得票数 3
4
回答
如何在未标记
的
数据上
微调
BERT
?
、
、
、
我想在
特定
的
域上对
BERT
进行
微调
。我在文本文件中有该域
的
文本。我如何使用这些来
微调
BERT
?我目前正在寻找。 我
的
主要目标是使用
BERT
实现句子嵌入。
浏览 3
提问于2020-05-23
得票数 6
1
回答
当我有没有标签
的
文本文档数据集时,如何使用
BERT
的
微调
?
、
、
、
我对使用
BERT
进行各种NLP/文本挖掘任务有了基本
的
了解。当谈到伯特
的
微调
时,我总是看到
微调
是使用一些分类任务来执行
的
。那么,当我有一组完全没有标签
的
文档时,我应该如何改进
BERT
模型给出
的
单词/句子嵌入向量?我知道,
BERT
模型最初是针对没有标签
的
数据进行培训
的
,所以必须有一些方法。
浏览 0
提问于2020-05-27
得票数 2
1
回答
如何使用Huggingface使用自定义(原始文本)
特定
领域
数据集训练
BERT
?
、
、
、
、
我想用一些自己
的
数据集来训练/
微调
BERT
模型,这些数据集只包含来自
特定
领域
的
原始数据,类似于BioBERT。在第一步中,我只想用这些原始数据训练
BERT
,而不是使用任何
特定
的
NLP任务进行
微调
。所以,我想要构建一个库,我可以使用它来对
特定
任务
的
带注释
的
训练数据进行
微调
,例如NER等。这是否可能以我计划
的
方式实现?我尝
浏览 2
提问于2021-03-28
得票数 0
1
回答
是否反对使用相同(
无
标签)数据进行基于伯特
的
模型和下游任务
的
预培训?
、
、
我希望在一个
特定
的
领域
使用未标注
的
数据来训练Electra模型。对于使用相同
的
数据进行
无
监督
学习,然后在下游使用相同
的
数据进行
监督
学习任务,是否有任何反对意见?
浏览 0
提问于2020-08-11
得票数 3
2
回答
如何选择合适
的
机器学习算法?
、
我目前在数据科学
领域
,特别是在ML
领域
是新
的
。解决一个问题有多种方法。
监督
的
,
无
监督
的
学习。我想知道什么是方法,以及如何在实际测试用例中准确地确定使用哪种算法。即使选择了
特定
的
算法,我们如何知道其他算法可能比这个算法具有更高
的
精度和精度呢?
浏览 0
提问于2017-05-26
得票数 1
3
回答
微调
BERT
的
最后x层
、
、
、
我试着
微调
BERT
只在
特定
的
最后一层(比方说最后三层)。我想使用谷歌Colab进行TPU培训。我使用hub.Module加载
BERT
并对其进行
微调
,然后将
微调
后
的
输出用于我
的
分类任务。
bert
_module = hub.Module(
BERT
_MODEL_HUB, tags=tags, trainable=True) hub.Module可以选择将模型设置为可训练或不可训练,但不能将其设置为部分可训
浏览 67
提问于2019-05-08
得票数 2
1
回答
BERT
语料库
微调
输入格式
、
、
、
我想
微调
伯特在一个
特定
的
语言
领域
使用以下git: 该文件夹中
的
脚本期望一个文件作为输入,由未标记
的
文本组成,每行有一个句子,文档之间有一个空行。分句
的
原因是
BERT
训练
的
一部分涉及到下一个句子目标,在这个目标中,模型必须预测两个文本序列是否是来自同一文档
的
连续文本,并且为了避免任务过于简单,序列之间
的
分裂点总是在句子
的
末尾。因此,文件中
的
浏览 3
提问于2020-11-26
得票数 0
1
回答
使用
领域
文本预训练
BERT
/RoBERTa语言模型,估计需要多长时间?哪个更快?
、
、
我想使用
领域
语料库(情感相关文本)预训练
BERT
和RoBERTa传销。使用50k~100k单词需要多长时间。由于RoBERTa没有经过训练来预测下一个句子
的
目标,比
BERT
少一个训练目标,并且具有更大
的
小批量和学习率,我假设RoBERTa会快得多?
浏览 28
提问于2020-02-09
得票数 1
回答已采纳
2
回答
伯特
微调
、
我试图建立我
的
回答问题
的
模型,基于
BERT
und不理解
微调
的
含义。我是否理解它是正确
的
,它就像对
特定
领域
的
适应?如果我想把它和维基百科
的
语料库结合起来,我只需要在我
的
网络中整合一个没有改变
的
预先训练过
的
模型?
浏览 0
提问于2020-02-26
得票数 2
回答已采纳
9
回答
AI
领域
无
监督
学习有哪些难点?
AI
领域
面临者一个巨大
的
问题,如何做到
无
监督
学习?因为有
监督
学习从数据清洗、特征工程、算法设计、模型训练与优化,到之后
的
实施、部署阶段,人力和时间成本很高,给 AI
的
普及带来了不小麻烦。所以想问下目前AI
领域
无
监督
学习有哪些难点?
浏览 2362
提问于2018-05-31
1
回答
如何将word2vec嵌入作为Keras嵌入层传递?
、
、
、
、
但是我假设由于我
的
数据(
特定
领域
的
数据)嵌入
的
单词很差,所以准确性很差。 由于word2vec是一种
无
监督
的
学习/自我
监督
的
学习方式,所以可以在Keras
的
嵌入层中使用word2vec嵌入吗?如果是,那么我可以使用转移学习
的
word2vec
浏览 0
提问于2019-04-26
得票数 3
2
回答
如何
微调
word2vec在培训我们
的
CNN文本分类?
、
、
、
我有三个关于
微调
字向量
的
问题。求你帮帮我。我会很感激
的
!事先非常感谢!我
的
问题是,如果我想做
微调
,它是否意味着创建一个嵌入层?以及如何创建它? 当我们训练Word2vec时,我们使用
无
监督
的
训练,对吗?就像在我
的
例子中,我使用跳过图模型来获得我预先训练过
的
word2vec;但是当我拥有vec.bin并使用它作为我
的
单词缩写词时,如果我能够在vec.bin中
微调
单词到向量地图,这
浏览 13
提问于2016-10-20
得票数 5
6
回答
使用深度学习技术
的
监督
学习(文档分类)
、
、
、
我在读关于深度学习
的
论文。其中大多数都是指
无
监督
学习。我正在尝试找出深度学习是否可以应用于文档分类问题。我知道有相当好
的
分类器可用。但我
的
目标是找出我们是否可以使用深度学习来达到这个目的。
浏览 7
提问于2013-10-29
得票数 10
1
回答
我能用蒙面语言模型和下一个句子预测来
微调
伯特吗?
、
因此,如果我正确理解,主要有两种方法使伯特适应
特定
的
任务:
微调
(所有的权重都改变了,甚至是预先训练
的
)和基于特征
的
(预先训练
的
权重被冻结)。不过,我很困惑。 如果我想对伯特进行
微调
,那么使用蒙面语言模型和下一个句子预测不是唯一
的
选择吗?还有:是否有必要在上面再加一层神经网络?
浏览 3
提问于2022-02-01
得票数 1
回答已采纳
2
回答
使用MLM对语言模型进行持续
的
预训练与
微调
、
、
、
、
到目前为止,我已经尝试了以下两种方法: BertForPreTraining model)Starting 从一个预先培训
的
BERT
检查点开始,并继续使用蒙面语言建模(MLM) +下一句预测(NSP)头进行预培训(例如使用带有MLM目标的预先训练
的
BERT
模型(例如,假设我们不需要NSP作为培训前部分
的
BertForMaskedLM模型)。但我仍然感到困惑
的
是,如果使用BertForPreTraining或BertForMaskedLM真的对伯特进行持续
的
预培训,或者这
浏览 5
提问于2021-07-20
得票数 5
回答已采纳
点击加载更多
相关
资讯
中文任务全面超 BERT,NLP 无监督预训练模型 ERNIE 真有官方说的那么好?
微软崔宏禹:GPT-4以后,不建议再用微调进行特定领域的模型适配
微软崔宏禹:GPT-4 以后,不建议再用微调进行特定领域的模型适配
语音版BERT?滴滴提出无监督预训练模型,中文识别性能提升10%以上
将BERT用于语音识别!滴滴提出新无监督预训练框架,中文识别性能提升10%
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券