腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
huggingface
-
在
本地
保存
微调
的
模型
-
以及
tokenizer
?
bert-language-model
、
huggingface-transformers
我只是想知道,如果
微调
BERT
模型
并
保存
它,标记器是否会受到某种影响或发生变化。以后使用
保存
的
BERT
模型
时,我是否也需要在
本地
保存
记号赋予器以重新加载它?我就是这么做
的
bert_model.save_pretrained('.或者我可以用正常
的
方式来使用它,比如:
tokenizer
= BertTokenizer.from_pretrained('bert-base-cas
浏览 358
提问于2020-10-20
得票数 1
回答已采纳
2
回答
在
本地
下载预先训练好
的
句子转换器
模型
word-embedding
、
bert-language-model
、
huggingface-tokenizers
、
sentence-transformers
我正在使用SentenceTransformers库(这里:)来使用预训练
模型
bert-base-nli-mean tokens创建句子
的
嵌入。我有一个应用程序将部署到不能访问互联网
的
设备上。这里,已经回答了如何
保存
模型
。然而,我被困在从
本地
保存
的
路径加载
保存
的
模型
。当我尝试使用上面提到
的
技术
保存
模型
时,输出文件如下: ('/
浏览 197
提问于2020-12-23
得票数 5
1
回答
Huggingface
Transformer - GPT2从
保存
的
检查点恢复训练
python
、
pytorch
、
huggingface-transformers
、
language-model
、
gpt-2
恢复从run_clm.py实现
的
GPT2
微调
GPT2
huggingface
是否具有从
保存
的
检查点恢复训练
的
参数,而不是从头开始再次训练?假设python笔记本
在
训练时崩溃,检查点将被
保存
,但当我再次训练
模型
时,它仍然从头开始训练。 来源:here
微调
代码: !model_name_or_path=gpt2 \ --num_train_epochs=1 \
浏览 98
提问于2021-01-01
得票数 1
回答已采纳
1
回答
如何利用Pytorch训练器API训练带有全词掩蔽
的
LM
模型
python-3.x
、
nlp
、
pytorch
、
huggingface-transformers
、
mlmodel
我正在从零开始通过训练语言
模型
来考虑
微调
模型
。我有几个与此有关
的
基本问题:text=['I am
huggingface
fan', 'I love
huggingface
', ....] data_collator = DataCollatorForLanguageModeling(
tokenizer
=
t
浏览 14
提问于2022-07-08
得票数 0
1
回答
如何从预先训练
的
模型
加载
保存
的
记号赋予器
machine-learning
、
pytorch
、
huggingface-transformers
我使用
huggingface
transformer
在
Pytorch中
微调
了一个预先训练好
的
BERT
模型
。所有的训练/验证都在云中
的
GPU上完成。
在
训练结束时,我
保存
了
模型
和标记器,如下所示: best_model.save_pretrained('./saved_model/')
tokenizer
.save_pretrained('./save
浏览 19
提问于2019-10-16
得票数 8
回答已采纳
1
回答
基于结构化数据
的
答疑系统实现
模型
machine-learning
、
nlp
、
bert
、
transformer
、
question-answering
我需要编写一个程序(像聊天机器人),它根据问题用户
的
提问从CSV数据文件中检索答案。因此,例如,如果CSV将产品列表及其规范存储
在
5-10列中,那么如果用户询问产品X
的
规范Y
的
问题,程序应该根据CSV返回正确
的
答案。我需要使用NLP,因为用户可以编写特定单词
的
同义词,或者提出与dataset中
的
关键字略有不同
的
问题。我认为我应该使用使用
HuggingFace
转换器
的
BERT
模型
,但我不知道如何使用N
浏览 0
提问于2022-06-19
得票数 1
1
回答
在
拥抱面上加载标记器: AttributeError:'AlbertTokenizer‘对象没有属性'vocab’
huggingface-transformers
、
huggingface-tokenizers
我正在尝试加载一个
huggingface
模型
和令牌程序。, RobertaForMaskedLM, AlbertForMaskedLM, ElectraForMaskedLM但是由于某种原因,当我试图加载这个错误时,我会发现一个错误:
tokenizer
我发现了相关
的
浏览 14
提问于2022-08-23
得票数 0
1
回答
SageMaker端点无法加载拥抱面标记器
python
、
amazon-web-services
、
amazon-sagemaker
、
huggingface-transformers
、
huggingface-tokenizers
我使用亚马逊SageMaker来训练
HuggingFace
模型
。
在
提供给估计器
的
培训脚本
的
末尾,我将
模型
保存
到正确
的
路径(SM_MODEL_DIR)中: parser = argparse.ArgumentParsertrainer.model.save_pretrained(args.model_dir) 在对
模型
进行了训练之后,我使用
Hugg
浏览 3
提问于2021-10-01
得票数 1
3
回答
Huggingface
保存
令牌程序
huggingface-transformers
、
huggingface-tokenizers
我试图将令牌程序
保存
在拥抱面中,以便以后可以从不需要访问internet
的
容器中加载它。/models/
tokenizer
3/' is a correct model identifier listed on 'https://
huggingface
.co/models' - or './models/
tokenizer
3/' is the correct path
浏览 33
提问于2020-10-27
得票数 21
回答已采纳
1
回答
使用
HuggingFace
对预训练任务进行mBART
微调
python
、
nlp
、
huggingface-transformers
、
pre-trained-model
、
fine-tune
我想使用预训练任务对我
的
数据进行facebook/mbart-large-cc25调优,特别是掩蔽语言建模(MLM)。 我如何在
HuggingFace
中做到这一点? 编辑:为了清晰起见,重写了问题
浏览 147
提问于2021-09-23
得票数 1
1
回答
Blenderbot FineTuning
python
、
tensorflow
、
nlp
、
pytorch
、
huggingface-transformers
我一直
在
尝试
微调
HuggingFace
的
会话
模型
:混合体。我尝试了官方拥抱脸网站上给出
的
传统方法,它要求我们使用trainer.train()方法。我使用.compile()方法进行了尝试。我尝试过使用PyTorch和TensorFlow对我
的
数据集进行
微调
。这两种方法似乎都失败了,并给出了一个错误,说明没有名为Blenderbot
模型
的
编译或训练方法。我甚至在网上到处查看Blenderbot是如何对我
的</
浏览 7
提问于2022-06-27
得票数 6
1
回答
将
保存
的
NER重新加载到
HuggingFace
管道?
nlp
、
named-entity-recognition
、
huggingface-transformers
、
huggingface-tokenizers
我正在研究
HuggingFace
的
迁移学习功能(特别是命名实体识别)。首先,我对变压器架构有点陌生。print(nlp(sequence)) 我想要做
的
是
在
本地
保存
和运行这个
模型
,而不必每次下载"ner“
模型
(其大小超过1GB)。在他们
的
文档中,我看到可以使用"pipeline.save_pretrained()“函数将管道
保存
到
本地
文件夹。结果是各种文件,我要存储
在</
浏览 0
提问于2020-09-28
得票数 3
回答已采纳
1
回答
连(记号器)和
tokenizer
.vocab_size
的
区别是什么?
nlp
、
tokenize
、
huggingface-transformers
、
huggingface-tokenizers
我试图
在
预先训练过
的
HuggingFace
变形金刚
模型
的
词汇表中添加几个新单词。我做了以下工作,以更改令牌程序
的
词汇表,并增加
模型
的
嵌入大小:model.resize_token_embeddings(len(
tokenizer<
浏览 9
提问于2021-05-06
得票数 4
回答已采纳
1
回答
产品描述中
的
文本分类问题
python
、
machine-learning
、
text-classification
我刚开始机器学习,我有一个包含4000到5000项
的
数据集,它们都是产品描述,结果,我想训练一个
模型
来将它们分类为1或0,我能用这种文本来训练它吗?
浏览 5
提问于2022-10-09
得票数 -1
2
回答
"ValueError:您必须指定input_ids或inputs_embeds“
在
培训AutoModelWithLMHead
模型
(GPT-2)时
python
、
pytorch
、
huggingface-transformers
、
gpt-2
我想
微调
AutoModelWithLMHead
模型
从,这是一个德国
的
GPT-2模式.我遵循了教程
的
预处理和
微调
。我已经为
微调
准备了一堆文字段落,但在开始训练时,我会收到以下错误:ValueError: You have to specify either
浏览 7
提问于2022-01-04
得票数 0
回答已采纳
1
回答
确定语篇输入
的
语法有效性
nlp
、
nltk
、
stanford-nlp
我正在寻找一些方法来确定文本输入是否采取有效句子
的
形式;如果没有,我想向用户提供一个警告。我想提醒用户注意
的
输入示例: 这似乎是一个困难
的
问题,因为语法通常来自textbanks,而提供
的
句子输入中
的
单词可能不会出现在语法中。它似乎也似乎解析者可能假设文本输入是由有效
的
英语单词组成
的
。(这只是我从使用斯坦福NLP
的
GUI工具中获得
的
短暂收获)。我
的
问题如
浏览 3
提问于2021-01-22
得票数 0
1
回答
使用
Huggingface
Transformers
的
聊天机器人
tensorflow
、
chatbot
、
huggingface-transformers
、
blenderbot
我想用
Huggingface
Transformers来实现一个聊天机器人。目前,我
的
代码如下所示。转换器
模型
已经考虑了过去用户输入
的
历史。
在
构建聊天机器人时,我还需要考虑其他因素(额外
的
代码)吗? 其次,如何修改代码以使用TensorFlow而不是PyTorch运行? 稍后,我还计划对其他数据
的
模型
进行
微调
。我还计划测试不同
的
模型
,比如BlenderBot和GPT2。我认为要测试这些不同
的
浏览 334
提问于2021-11-21
得票数 1
回答已采纳
1
回答
对拥抱式变压器
的
理解
pre-trained-model
、
huggingface-transformers
、
bert-language-model
、
nlp-question-answering
、
squad
我对Transformers概念很陌生,我正在学习一些教程,并编写自己
的
代码来理解Squad2.0数据集问题,使用转换器
模型
回答问题。
在
拥抱脸
的
网站上,我看到了两个不同
的
链接。我想知道这两个网站之间
的
区别。一个链接是否只有一个预先训练过
的
模型
,而另一个则有一个经过预先训练和精细调整
的
模型
?现在,如果我想使用艾伯特
模型
来回答问题,并使用我
的
Team2.0训练数据集进行培训,并评估<e
浏览 3
提问于2020-05-13
得票数 1
回答已采纳
3
回答
有什么理由去拯救一个经过预先训练
的
伯特记号器吗?
save
、
pytorch
、
bert-language-model
、
huggingface-tokenizers
假设我使用
的
是
tokenizer
= BertTokenizer.from_pretrained('bert-base-uncased', do_lower_case=True),在对新
模型
进行
微调
期间,我使用该令牌程序所做
的
全部工作就是标准
的
tokenizer
.encode()。我
在
大多数地方看到,人们
在
保存
模型
的
同时
保存
令牌,但我不清楚为什
浏览 7
提问于2020-09-22
得票数 2
回答已采纳
3
回答
如何禁用TOKENIZERS_PARALLELISM=(true | false)警告?
pytorch
、
huggingface-transformers
、
huggingface-tokenizers
我使用pytorch训练
huggingface
-transformers
模型
,但每个时期,总是输出警告: The current process just got forked.
浏览 15
提问于2020-07-02
得票数 15
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用 Hugging Face TRL 微调大型语言模型以实现特定任务
Python中Keras微调Google Gemma:定制化指令增强大语言模型LLM
QLoRa:在消费级GPU上微调大型语言模型
4张图片就可以微调扩散模型
两行代码开启 LoRA 微调&LLM 情感实体抽取实践
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券