腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
huggingface
包
中
的
XLNet
转换器
训练
模型
、
、
、
我希望在
模型
中
包含一个预先
训练
好
的
XLNet
(或者可能是另一个最先进
的
转换器
)来对其进行微调。 但是,当我将它包含在keras层
中
时,它就不起作用了。bug是 AttributeError: 'NoneType' object has no attribute 'shape' 在一线上 x = xlnetPretrainedModel(x) 因此,当
模型
用于输入层时如果在numpy数组上<em
浏览 52
提问于2020-12-22
得票数 2
1
回答
Rasa与
HuggingFace
的
集成管道
、
我正在尝试将Rasa配置为
使用
在
HuggingFace
预先
训练
好
的
模型
。这是我
的
设置pipeline: - name: LanguageModelFeaturizer你知道如何将这个
huggingface
模型
集成到Rasa
中
吗? 我们可以在Rasa配置
中
包含多个
HuggingFace
管道吗?-
浏览 1
提问于2021-04-08
得票数 0
1
回答
将伯特作为子模块添加到我
的
git repo后,找不到错误“版本”。
、
、
在将BERT作为子模块添加之后,无法
使用
它,配置文件
中
缺少版本信息。这些是主要步骤:from s
浏览 2
提问于2020-11-19
得票数 3
回答已采纳
1
回答
如何在
训练
HuggingFace
BERT
模型
的
同时停止数据洗牌?
、
、
、
我想
使用
HuggingFace
实现/库来
训练
一个伯特
转换器
模型
。在培训期间,
HuggingFace
对每个时代
的
培训数据进行洗牌,但我不想对数据进行洗牌。例如,如果我有5个
训练
数据,批处理大小= 2,那么我希望
训练
数据以1、2、2、3、3、4和4、5
的
形式显示。我找不到任何资源来显示如何禁用默认
的
洗牌。
浏览 14
提问于2022-11-12
得票数 1
4
回答
对于文本分类任务,您会
使用
哪种
模型
(GPT2、BERT、
XLNet
等)?为什么?
、
、
、
我正在尝试为句子分类任务
训练
一个
模型
。输入是一个句子(整数
的
向量),输出是一个标签(0或1)。我在各处看到过一些关于
使用
Bert和GPT2执行文本分类任务
的
文章。然而,我不确定我应该从哪一个开始。在自然语言处理
中
的
这些最新
模型
中
,您会
使用
原始变压器
模型
、Bert、GPT2、
XLNet
中
的
哪些
模型
作为开始?为什么?我更愿意在Ten
浏览 5
提问于2019-09-09
得票数 8
1
回答
OSError:无法加载标记器
、
、
我想从头开始
训练
XLNET
语言
模型
。首先,我
训练
了一个标记器,如下所示:tokenizer =:vocab.jsonfrom transformers import XLNetConfig, XLNetModel现在,我想在transformers
中</
浏览 377
提问于2021-02-20
得票数 1
回答已采纳
1
回答
使用
HuggingFace
对预
训练
任务进行mBART微调
、
、
、
、
我想
使用
预
训练
任务对我
的
数据进行facebook/mbart-large-cc25调优,特别是掩蔽语言建模(MLM)。 我如何在
HuggingFace
中
做到这一点? 编辑:为了清晰起见,重写了问题
浏览 147
提问于2021-09-23
得票数 1
1
回答
我可以微调伯特,埃尔莫或
XLnet
的
Seq2Seq神经机器翻译?
、
、
、
、
我有一个很小
的
数据集-大约1000个句子对。我想知道是否有可能微调伯特,埃尔莫或
XLnet
的
Seq2seq编解码机翻译。美国手语:他卖
的
食物
浏览 0
提问于2020-02-24
得票数 2
1
回答
如何将现有的抱脸变压器
模型
转化为空间?
、
、
、
我是来问你们是否有可能
使用
现有的受过
训练
的
拥抱式变形金刚
模型
。我第一个天真的尝试是通过spacy.load('bert-base-uncased')加载它,它没有工作,因为spacy需要一个特定
的
结构,这是可以理解
的
。现在,我试图弄清楚如何
使用
spacy-transformers库加载
模型
,创建spacy结构,并将其作为一个正常
的
空间感知
模型
使用
。 我不知道这是否可能,因为我找不
浏览 2
提问于2021-10-27
得票数 8
回答已采纳
3
回答
精密微调预培训变压器
、
、
预先
训练
的
变压器(GPT2,Bert,
XLNET
)由于其传输学习能力而广受欢迎和有用。 作为提醒:迁移学习
的
目的是传递从一个领域/任务
中
获得
的
知识,并
使用
该转移/
使用
该知识来解决一些相关任务。这是通过对大量标签数据(我们已经拥有并且可能很容易获得)进行
模型
培训来完成
的
,然后删除最后几层,用与任务相关
的
数据集对新
的
相关任务进行微调。我拿了谷歌最近发布
的</
浏览 0
提问于2020-08-12
得票数 4
2
回答
相同
的
句子在
XLNet
中产生不同
的
向量
、
、
、
、
我用计算了两个相同句子
的
向量。但是该
模型
对两个相同
的
句子产生不同
的
向量嵌入,因此余弦相似度不是1,欧氏距离也不是0。在伯特
的
情况下,它
的
作品很好。'he is anger'],pooling='reduce_mean')
模型
(
XLNet
)是说这两句话
浏览 8
提问于2021-01-08
得票数 5
2
回答
在本地下载预先
训练
好
的
句子
转换器
模型
、
、
、
我正在
使用
SentenceTransformers库(这里:)来
使用
预
训练
模型
bert-base-nli-mean tokens创建句子
的
嵌入。我有一个应用程序将部署到不能访问互联网
的
设备上。这里,已经回答了如何保存
模型
。然而,我被困在从本地保存
的
路径加载保存
的
模型
。当我尝试
使用
上面提到
的
技术保存
模型
时,输出文件如下: ('/bert-base
浏览 197
提问于2020-12-23
得票数 5
1
回答
Spacy
中
的
顺序/上下文感知文档/句子向量
、
、
、
、
我想用句子做一些有监督
的
二进制分类任务,并且一直在
使用
spaCy,因为它易于
使用
。我
使用
spaCy将文本转换为向量,然后将向量提供给机器学习
模型
(例如XGBoost)来执行分类。在spaCy
中
,很容易加载 (例如BERT / Roberta /
XLNet
)来将单词/句子转换为nlp对象。然而,直接调用对象
的
向量将到令牌向量
的
平均值。这里有两个问题: 1)我们能做得比简单地获得标记向量
的
浏览 17
提问于2020-05-06
得票数 0
2
回答
基于“语法”或“语境”关联确定短语
的
“善”
、
给出一个随机
的
单词串,我想给这个短语指定一个“好”分数,其中“好”是语法和上下文相关性
的
一些指示。我曾考虑过
使用
经过
训练
的
标记来为短语
中
的
每个单词分配词性部分,然后分析语料库中出现
的
POS模式。这可能会给我一个语法上
的
“善良”
的
暗示。然而,由于标签本身是在我用于验证
的
同一个语料库上
训练
的
,我无法想象结果会是可靠
的
。这种方法也没有考虑到词语
浏览 2
提问于2020-09-17
得票数 1
回答已采纳
1
回答
SageMaker端点无法加载拥抱面标记器
、
、
、
、
我
使用
亚马逊SageMaker来
训练
HuggingFace
模型
。在提供给估计器
的
培训脚本
的
末尾,我将
模型
保存到正确
的
路径(SM_MODEL_DIR)
中
: parser = argparse.ArgumentParsertrainer.model.save_pretrained(args.model_dir) 在对
模型
进行了
训练<
浏览 3
提问于2021-10-01
得票数 1
1
回答
有什么办法我可以
使用
下载
的
预培训
模型
的
TIMM吗?
、
、
由于某些原因,我不得不脱机
使用
TIMM
包
。但我发现,如果我
使用
create_model(),,例如:我发现这个函数想要通过下面的URL获取经过预先
训练
的
模型
浏览 54
提问于2022-04-16
得票数 2
1
回答
有没有GPT-2实现可以让我微调和提示文本补全?
、
、
、
、
我希望对一些文本数据上
的
GPT-2实现进行微调。然后,我想
使用
这个
模型
来完成一个文本提示。
使用
Max Woolf
的
gpt-2-simple实现,我可以很容易地完成第一部分。OpenAI
的
Neil Shepherd's fork允许在新数据上
训练
GPT-2并完成文本。 然而,我
的
语料库太小了,不能
训练
,也不能得到胡言乱语
的
回复。有没有办法把这两个函数结合起来呢?理想情况下,我希望能够通过python接口(而不
浏览 31
提问于2020-01-28
得票数 2
回答已采纳
1
回答
深度学习NLP:“高效”
的
BERT类实现?
、
、
、
、
我在一个遗留
的
公司环境
中
工作,在NLP项目中我只有16个核心64 to
的
VM可用。我有一个多标签自然语言处理文本分类问题,我真的想利用一个深度表示学习
模型
,如BERT,RoBERTa,ALBERT等。我有大约200,000个需要标记
的
文档,我有大约2,000个注释集,用作
训练
/测试/微调
的
基础事实。我还有更多与领域相关
的
文档可用于预培训。我很可能需要从头开始进行预
训练
,因为这是在临床领域。我也对预先
训练</
浏览 45
提问于2020-05-15
得票数 1
回答已采纳
2
回答
没有这样
的
文件或目录错误
、
、
我对Google平台非常陌生,我正在尝试与TPU一起
训练
一个
模型
。我遵循这个与Google建立TPU。下面的所有代码都遵循本教程。输出:提供我
的
BUCKET名称和OUPUT DIRECTORY名称:print('***** Model output directory: {}
浏览 0
提问于2020-08-08
得票数 1
回答已采纳
1
回答
如何利用Pytorch
训练
器API
训练
带有全词掩蔽
的
LM
模型
、
、
、
、
我正在从零开始通过
训练
语言
模型
来考虑微调
模型
。我有几个与此有关
的
基本问题:text=['I am
huggingface
fan', 'I love
huggingface
', ....] data_collator = DataCollatorForLanguageModelingtrainin
浏览 14
提问于2022-07-08
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Huggingface创建大语言模型RLHF训练流程的完整教程
如何使用 Java 调取 Python、R 的训练模型?
GitHub万星NLP资源大升级:Pytorch和TF深度互操作,32个最新模型
使用Java部署训练好的Keras深度学习模型
GitHub超9千星:一个API调用六种架构,27个预训练模型
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券