腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
如何从本地/colab目录加载预培训的
BERT
模型
?
nlp
、
bert
嗨,我从这里
下载
了伯特预培训
模型
(https://storage.googleapis.com/
bert
_
模型
/2018年_10_18/外壳_L-12_H-768_A-12.zip),并保存到gogole当我试图在colab中加载
模型
时,得到“我们假设”/content/驱动器/My Drive/
bert
_training/uncased_L-12_H-768_A-12/conf
浏览 0
提问于2019-12-06
得票数 5
回答已采纳
1
回答
加载预训练的
BERT
模型
问题
python
、
pytorch
、
huggingface-transformers
我正在使用Huggingface进一步训练
BERT
模型
。我使用两种方法保存
模型
:步骤(1)使用以下代码保存整个
模型
:model.save_pretrained(save_location),以及步骤(2)使用以下代码保存
模型
的state_dict:torch.save(model.state_dict(),'model.pth')然而,当我尝试使用步骤(1)的代码
bert
_mask_lm = BertForMaskedLM.from_pretrained('
浏览 23
提问于2021-03-02
得票数 3
1
回答
由于代理问题,Hugginface
Bert
Tokenizer从源构建
python
、
tokenize
、
huggingface-transformers
我遇到了类似的东西:
BERT
tokenizer & model download 上面的链接是关于
下载
Bert
模型
本身的,但我只想使用
Bert
Tokenizer。通常我可以这样做: from transformers import BertTokenizer
bert
_tokeni
浏览 125
提问于2021-10-18
得票数 0
回答已采纳
2
回答
变压器和伯特
下载
到您的本地机器
python
、
torch
、
bert-language-model
、
transformer-model
、
doc2vec
有人能帮助我们在手动
下载
文件到我的机器后如何使脚本工作吗? # Tokenize our sentence with the
BERT
tokenizer.如果有人做过这个…,请告诉我谢谢
浏览 9
提问于2021-09-22
得票数 1
回答已采纳
1
回答
错误:'utf-8‘编解码器无法解码7526-7527位置的字节:无效的连续字节
python
、
utf-8
、
load
我在直接
下载
Bert
模型
(公司的隐私政策)时遇到连接问题,所以我在https://github.com/huggingface/transformers/blob/master/src/transformers/tokenization_
bert
.py
下载
了BertTokenizer 并得到了我的
模型
令牌器的txt文件。“
bert
-base-多语言大小写”:"https:
浏览 13
提问于2020-01-13
得票数 0
回答已采纳
1
回答
从零开始调整/训练HuggingFace
模型
的正确方法(PyTorch)
python
、
pytorch
、
bert-language-model
、
huggingface-transformers
例如,我想使用现有配置从头开始训练一个
BERT
模型
。下面的代码是正确的方法吗?model = BertModel.from_pretrained('
bert
-base-cased')model.init_weights() 我想知道以
浏览 156
提问于2020-08-19
得票数 4
回答已采纳
4
回答
如何在本地使用tf-hub
模型
python
、
tensorflow
、
keras
、
tensorflow-hub
、
bert-toolkit
我一直在尝试使用tf-hub https://tfhub.dev/tensorflow/
bert
_en_uncased_L-12_H-768_A-12/2的
BERT
模型
。/
bert
_en_uncased_L-12_H-768_A-12_2', trainable=True) 但问题是,它每次运行后都会
下载
数据。所以我从tf-hub https://tfhub.dev/tensorflow/
浏览 172
提问于2020-07-01
得票数 1
1
回答
无法
下载
cahya/
bert
-base-印尼-522M的tensorflow
模型
bert-language-model
、
huggingface-transformers
我打算
下载
this
模型
,然后我打算稍后保存它,以便与
bert
-serving一起使用。由于
bert
-serving仅支持tensorflow
模型
,因此我需要
下载
tensorflow one而不是PyTorch。PyTorch
模型
下载
得很好,但我无法
下载
tensorflow
模型
。我使用以下代码
下载
: from transformers import BertTokenizer, TFBertModel
浏览 164
提问于2020-09-22
得票数 0
1
回答
如何用SentenceTransformers从局部路径加载
Bert
预训练
模型
?
nlp
、
bert-language-model
、
pre-trained-model
、
sentence-transformers
我使用SentenceTransformer库使用伯特预先培训过的
模型
,我在google中
下载
了该文件,并使用以下命令保存它:model.save('/content/drive/MyDrive/Pizza/
Be
浏览 14
提问于2021-10-18
得票数 0
1
回答
BertTokenizer加载问题
deep-learning
、
nlp
、
pytorch
、
bert
TEST_BATCH_SIZE = 8 N_FOLD = 5 TRAIN_CSV = ".csv" API = "#" MODEL_NA
浏览 0
提问于2022-06-16
得票数 1
回答已采纳
2
回答
如何从huggingface
下载
模型
?
huggingface-transformers
、
transformer
https://huggingface.co/models 例如,我想
下载
'
bert
-base-uncased',但找不到‘
下载
’链接。请帮帮忙。或者它是不可
下载
的?
浏览 813
提问于2021-05-19
得票数 1
回答已采纳
1
回答
在JupyterNotebook中
下载
的
模型
位于何处?
python
、
pip
、
nlp
、
jupyter-notebook
、
pytorch
当我运行这个命令时,我可以看到我
下载
了
模型
。那么,这些
下载
的
模型
/数据/令牌器存储在我的机器中的什么地方? 谢谢!
浏览 12
提问于2020-12-27
得票数 0
1
回答
BERT
标记器和
模型
下载
python
、
github
、
pytorch
、
huggingface-transformers
、
bert-language-model
但是,由于公司网络的安全性,以下代码不会直接接收
bert
模型
。tokenizer = BertTokenizer.from_pretrained('
bert
-base-multilingual-cased', do_lower_case=False)所以我想我必须
下载
浏览 5
提问于2020-01-12
得票数 6
回答已采纳
3
回答
OSError:错误无文件名['pytorch_model.bin','tf_model.h5','model.ckpt.index']
python
、
tensorflow
、
pytorch
、
bert-language-model
当我在线加载
BERT
预训练
模型
时,我得到了这个错误OSError: Error no file named ['pytorch_model.bin', 'tf_model.h5', 'model.ckpt.index
浏览 2485
提问于2020-07-18
得票数 3
回答已采纳
1
回答
Transformers管道
模型
目录
python
、
python-3.x
、
pipeline
、
bert-language-model
、
huggingface-transformers
我正在使用Huggingface的Transformers管道函数
下载
模型
和记号赋值器,我的Windows PC
下载
了它们,但我不知道它们存储在PC上的什么位置。你能帮帮我吗? ? transformers import pipeline "question-answering", tokeniz
浏览 17
提问于2020-10-12
得票数 1
1
回答
有没有办法将
bert
-large用作文本分类工具而无需微调?
python
、
tensorflow
、
keras
、
nlp
、
bert-language-model
我目前的一个任务是将任何文本分类问题的基于keras
BERT
的
模型
转换为.pb文件。为此,我已经有了一个函数,它接受keras
模型
,但重点是,当我试图
下载
任何预训练版本的
BERT
时,它们总是没有任何用于分类的顶层,因此我应该在
BERT
之前手动添加tf.keras.layers.Input层,并在
BERT
之上添加任何神经网络架构(在CLS嵌入之后)。我的最终目标是摆脱微调的需要,并获得一些已经进行了微调的现成
模型
。我发现transformer库可能对此
浏览 1
提问于2021-04-06
得票数 0
2
回答
在码头集装箱中运行失败时加载经过预先训练的torch和sentence_transformers
模型
python-3.x
、
docker
、
docker-compose
、
pytorch
、
sentence-transformers
当我试图在码头集装箱中运行时,装载经过预先训练的torch和sentence_transformers("distilbert-base-nli-stsb-mean-tokens")
模型
时,我得到了以下错误
浏览 10
提问于2021-01-08
得票数 2
7
回答
用从磁盘加载预训练
模型
huggingface-transformers
从文档中,我知道我不必每次都
下载
经过预先训练的向量,我可以用以下语法保存它们并从磁盘加载: /my
浏览 136
提问于2020-09-21
得票数 27
1
回答
如何在本地
下载
BERT
模型
,不使用包?
python
、
nlp
、
huggingface-transformers
公司防火墙似乎阻止我只使用 model = AutoModel.from_pretrained("sentence-transformers/
bert
-base-nli-stsb-mean-tokens") 因此,我需要在本地
下载
此
模型
,然后将其读取到Python中。找不到直接的AWS链接,似乎通常是这种形式:但不起作用 https://s3.amazonaws.com/models.huggingface.co/
bert
/
bert</
浏览 57
提问于2021-04-14
得票数 0
1
回答
如何从本地磁盘加载拥抱面
模型
/资源?
local-storage
、
huggingface-transformers
、
sentence-transformers
我想从本地磁盘加载拥抱面
模型
/资源。sentence_transformers import SentenceTransformer# create sentence embeddings sentence_embeddings
浏览 12
提问于2022-08-08
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券