腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(115)
视频
沙龙
1
回答
HuggingFace
变压器
如
何在
添加
额外
的
keras
层
后
冻结
变压器
keras
、
deep-learning
、
nlp
、
bert-language-model
、
huggingface-transformers
我想在预训练
的
BERT模型
的
最后一
层
之后
添加
一个回归
层
。所以它应该是这样
的
:output = output[1]但我不知道如何
冻结
BERT模型,只训练回归
层
。
浏览 32
提问于2021-05-13
得票数 0
1
回答
在Windows上使用
变压器
?
huggingface-transformers
我不知道如
何在
Windows上使用
变压器
-cli。我让它在Google Colab上工作,同时也在使用它。编辑--我在Windows上(括号是我在CMD中键入的确切命令) 安装transformers==2.8.0)I I transformers==2.8.0 (pip transformers==2.8.0)尝试运行
变压器
-cli,
如
Huggingface
网站(Transformers)
浏览 10
提问于2020-05-03
得票数 1
2
回答
计算机视觉
变压器
: ViT没有解码器吗?
computer-vision
、
transformer
、
attention-mechanism
v=TrdevFK_am4
的
一篇题为“图像值16X16字:用于图像识别的变形金刚”
的
论文那么ViT有一个更简单
的
体系结构?似乎编码器
的
输出是MLP
的
输入,用于分类任务。 此外,为了学习
的
目的,我也被推荐到这个回购https://github.com/lucidra
浏览 0
提问于2023-05-06
得票数 0
回答已采纳
1
回答
基于
变压器
,如何提高文本
的
生成效果?
deep-learning
、
nlp
、
transformer
、
text-generation
如果没有像tensor2tensor这样
的
文本生成模型进行预训练,如何提高基于
变压器
的
结果? 在文本生成任务中,
变压器
的
改进思想是什么?
浏览 0
提问于2020-08-19
得票数 1
回答已采纳
1
回答
如何向TensorFlow神经网络
添加
额外
的
层
?
tensorflow
如
何在
TensorFlow神经网络中
添加
额外
的
层
,并且知道附加
层
不会过分适合?似乎2
层
不会很有帮助,但它确实给了我91%
的
准确性,我想100%
的
准确性。因此,我想增加5到10个
额外
的
层
,并尝试和“过度适合”
的
神经网络。一个超适
的
训练集是否总能提供100%
的
准确性? 神经网络
的
基本构造块是。将这一
层</e
浏览 6
提问于2022-05-29
得票数 0
2
回答
集极小
的
多类分类
machine-learning
、
neural-network
、
deep-learning
、
multiclass-classification
、
text-classification
我正在做一个文本分类任务,其中包含216个标有标签
的
段落。标签
的
分布情况如下:键表示
的
是类,值是样本
的
数量。以下是我
的
问题: Q2。如果我们想要一个11级文本分类器,我们需要多少个样本?
浏览 0
提问于2021-01-05
得票数 2
2
回答
在非常小
的
数据集中对BERT超参数进行细化时,它
的
好参数范围是多少?
deep-learning
、
bert
、
finetuning
我需要完成一个句子分类任务
的
BERT模型(来自拥抱脸存储库)。然而,我
的
数据集真的很小,我有12K句,其中只有10%来自积极类。这里有谁有过在小数据集中整理bert
的
经验吗?
浏览 0
提问于2019-12-10
得票数 11
3
回答
使用自定义X和Y数据训练TFBertForSequenceClassification
nlp
、
pytorch
、
tensorflow2.0
、
huggingface-transformers
、
bert-language-model
我正在研究一个TextClassification问题,我试图在
huggingface
-transformers库中给出
的
TFBertForSequenceClassification上训练我
的
模型。我遵循了他们
的
页面上给出
的
示例,我能够使用tensorflow_datasets.load('glue/mrpc')对给定
的
示例数据运行示例代码。但是,我找不到一个关于如何加载我自己
的
自定义数据并将其传递到model.fit(train_dat
浏览 6
提问于2020-02-29
得票数 9
1
回答
阿尔伯特不收敛-
HuggingFace
machine-learning
、
nlp
、
text-classification
、
transformer-model
、
huggingface-transformers
我正在尝试将经过预先训练
的
HuggingFace
阿尔伯特转换器模型应用到我自己
的
文本分类任务中,但损失不会超过某个点。这是我
的
密码:0, 1, 2, 3maxlen=25from transformersencodings.append(tokenizer.encode(t, max_length=maxlen, pad_to_max_length=True,
浏览 0
提问于2020-06-20
得票数 4
1
回答
是否有可能从中间层(一般和
Keras
)开始训练CNN?
keras
、
transfer-learning
我使用移动网络v2在我
的
图像上训练一个模型。除了几层外,我已经
冻结
了所有的
层
,然后
添加
了
额外
的
层
来进行训练。我希望能够从中间层训练,而不是从一开始就训练。我
的
问题: 如何指定从第一个可训练(非
冻结
)
层
开始
的
培训?我不太明白
浏览 1
提问于2019-02-04
得票数 0
回答已采纳
1
回答
BERT嵌入
层
nlp
、
bert
我试图弄清楚嵌入
层
是如何为预先训练
的
伯特基模型工作
的
。bert-base-uncased')这个BERT模型有199个不同
的
命名参数,其中前5个属于嵌入
层
(第一
层
)。从BERT模型
的
替代实施来看,位置嵌入是一个静态转换。这似乎也是在
变压器
模型中进行位置编码
的
传统方法。考虑到替代实现,它使用正弦和余弦函数在输入中编码交错对。位置嵌入
后
的
下一
层</e
浏览 0
提问于2021-05-03
得票数 3
回答已采纳
1
回答
对于图像分类问题,如何选择卷积神经网络中密集
层
的
单元数?
tensorflow
、
machine-learning
、
deep-learning
、
neural-network
、
conv-neural-network
from
keras
import layersmodel = models.Sequential()model.add(layers.Dense(1, activation='sigmoid')) 在阅读关于将图像分类为猫或狗
的
二进制分类问题
的
代码时,在密集
层
中,他们使用了512个单元。他们
浏览 31
提问于2020-06-20
得票数 6
回答已采纳
4
回答
伯特:可以把它用于主题建模吗?
topic-model
、
lda
、
bert
我很难理解BERT
的
全部功能是什么:可以对文本进行主题建模,就像我们可以用LDA实现
的
那样?
浏览 0
提问于2019-06-05
得票数 7
2
回答
巴丹诺-隆关注如何使用查询、值、关键向量?
deep-learning
、
tensorflow
、
rnn
、
transformer
、
attention-mechanism
在最新
的
TensorFlow 2.1中,tensorflow.
keras
.layers子模块包含AdditiveAttention()和Attention()
层
,分别实现了Bahdanau和Luong
的
关注点这些新类型
的
层
需要query、value和key输入(但最新
的
是可选
的
)。但是,查询、值、关键向量是我经常读到
的
转换器体系结构。 当涉及到巴丹瑙和隆
的
注意力时,这些向量代表什么?例如,如果我想为一个共同
的
浏览 0
提问于2020-03-03
得票数 2
回答已采纳
1
回答
Bert预训练模型,每次提供随机输出
python-3.x
、
pytorch
、
huggingface-transformers
、
bert-language-model
我试图
添加
一个
额外
的
层
后
拥抱面对伯特
变压器
,所以我使用BertForSequenceClassification在我
的
nn.Module网络。但是,与直接加载模型相比,模型给出了随机输出。(tensor([[-0.3729, -0.2192, 0.1183, 0.0778, -0.2820]],他们应该是同样
的
模式我在这里发现了一个类似的问题,但没有合理
的<
浏览 0
提问于2020-05-09
得票数 2
4
回答
如
何在
未标记
的
数据上微调BERT?
nlp
、
pytorch
、
huggingface-transformers
、
bert-language-model
我想在特定
的
域上对BERT进行微调。我在文本文件中有该域
的
文本。我如何使用这些来微调BERT?我目前正在寻找。 我
的
主要目标是使用BERT实现句子嵌入。
浏览 3
提问于2020-05-23
得票数 6
2
回答
捕获Scotty / Haskell中
的
异常
haskell
、
scotty
我刚开始学习Haskell,并且一直在研究如何处理Scotty中
的
异常。给出
的
编译错误如下:catchViolation :: (SqlError -> ConstraintViolation -> IO a) -> IO a -> IO
浏览 3
提问于2015-04-06
得票数 4
1
回答
有没有一种方法可以改变DL4J中神经网络
的
拓扑结构,而不必对其进行再训练?
java
、
neural-network
、
deep-learning
、
topology
、
deeplearning4j
我需要对已经经过培训
的
现有deeplearning4j (DL4J)模型进行更改。网络由一个输入
层
、一个Graves LSTM和一个RNN输出
层
组成。我
的
问题是:是否有可能在LSTM
层
中
添加
一个或多个未经训练
的
神经元,而不必重新构建新
的
配置模型(我认为这需要再培训)?我想做这样
的
事情,比如,将一个或多个神经元
添加
到一个现有的
层
中,或者将一个完整
的
层
(未经训练)<e
浏览 2
提问于2018-05-27
得票数 3
回答已采纳
3
回答
在haskell程序中使用返回
的
EitherT
haskell
、
monads
、
monad-transformers
、
either
、
io-monad
我试图在我正在进行
的
Haskell项目中使用“引证-解决”包,但是我很难使用真实代码中
的
任何一种语言。我知道它们是单台
变压器
,我想我明白这意味着什么,但我似乎无法真正想出如何使用它们。表示我所要做
的
事情
的
玩具示例如下:import Text.EditDistanceimport任何帮助都将不胜感激,尤其是从使用角度(而不是从实现角度)指导如何处理单台
变压器
。编辑: 为了反映dfeue
浏览 4
提问于2014-09-29
得票数 5
回答已采纳
3
回答
密集
层
Keras
的
输出维数
tensorflow
、
keras
、
deep-learning
、
tensorflow2.0
、
tf.keras
我有下面的样例from tensorflow.
keras
import layers optimizer="adam", metrics = ["accuracy"])sam_y = n
浏览 13
提问于2021-04-12
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券