腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(534)
视频
沙龙
1
回答
如
何在
Huggingface
BERT
模型
之上
添加
LSTM
层
、
、
、
、
我正在做一个二进制分类任务,我想尝试在
huggingface
BERT
模型
的最后一个隐藏
层
之上
添加
lstm
层
,但是,我无法到达最后一个隐藏
层
。有没有可能将
BERT
与
LSTM
结合起来?tokenizer = BertTokenizer.from_pretrained(model_path) tain_inputs, train_labels, train_masks = data_prepare_<e
浏览 156
提问于2021-01-18
得票数 1
1
回答
BERT
序列标记
、
、
、
我正在使用一个由嵌入
层
和
LSTM
组成的
模型
来执行序列标记,在py电筒+ torchtext中。我已经把句子标记出来了。我不确定的是
浏览 0
提问于2020-05-10
得票数 0
回答已采纳
1
回答
如
何在
HuggingFace
变压器库中获取预训练的
BERT
模型
的中间层输出?
、
、
、
、
(我正在学习关于
BERT
word嵌入的 author教程,在本教程中,作者访问了
BERT
模型
的中间层。)我想要的是使用
HuggingFace
的Transformers库访问TensorFlow2中
BERT
模型
的单个输入令牌的最后4
层
。因为每个
层
输出一个长度为768的向量,所以最后4个
层
的形状为4*768=3072 (对于每个令牌)。 如
何在
TF/keras/TF2中实现这一点,以获得输入令牌的预
浏览 8
提问于2020-04-27
得票数 7
回答已采纳
2
回答
Tensorflow和
Bert
到底是什么,它们之间有什么区别?
、
我对NLP很感兴趣,我想出了Tensorflow和
Bert
,两者似乎都来自谷歌,似乎都是目前情绪分析最好的东西,但我不明白它们到底是什么,它们之间有什么区别.有人能解释一下吗?
浏览 3
提问于2021-05-02
得票数 0
回答已采纳
1
回答
如
何在
aclImdb数据集上使用预训练的静态词向量
、
、
、
我试着用
LSTM
和预先训练的
BERT
嵌入来进行情感分类,然后用转换器进行语言翻译,首先我下载了!,该
模型
应该包括:一个嵌入
层
开始。至少一个
LSTM
layer.At,用于regularization.One最终密集
层
的至少一个Dropout
层
映射到输出。编译
模型
,使用categorical_crossentropy丢失和adam优化器。或者可能希望
添加
其他类型的度量,例如,Categorica
浏览 14
提问于2022-06-19
得票数 0
回答已采纳
2
回答
我怎样才能用伯特取代
LSTM
?
、
在本例中,我需要使用
BERT
而不是
LSTM
。能用伯特代替
LSTM
这个词吗?inputs2 = Input(shape=(max_length,))
bert
_output = BertLayer(n_fine_tune_layers=12, pooling="mean")(
浏览 6
提问于2021-12-11
得票数 2
1
回答
如
何在
BertForSequenceClassification
之上
添加
额外的致密
层
?
、
、
我想在分类
层
(我使用的是PyTorch lightning)之前
添加
一个额外的
层
(和dropout),最好的方法是什么?
浏览 62
提问于2021-05-05
得票数 0
回答已采纳
2
回答
我如
何在
bert
预训练
模型
中获得最后一个transformer编码器的所有输出,而不仅仅是cls令牌输出?
、
、
、
、
我使用的是pytorch,这是
huggingface
transformers link的
模型
from transformers import BertTokenizerFast, BertForSequenceClassification
bert
= BertForSequenceClassification.from_pretrained("
bert
-base-uncased",output_hidden_states=False) 在我正在构建的前向函数中,我现在调用了x1, x2 = self
浏览 282
提问于2020-12-09
得票数 3
1
回答
在
Huggingface
模型
中,如何将PyTorch
模型
层
的张量替换为另一
层
相同形状的张量?
、
、
、
给出了一个
Huggingface
模型
。import AutoModelForSequenceClassification replacement_layer = torch.rand([1024, 1024]) 注:我不是试图用随机张量来替换一个
层
,而是用一个预定义的张量来代替它。当我试图通过state_dict()替换
层<
浏览 34
提问于2022-09-07
得票数 1
回答已采纳
1
回答
如何将
bert
嵌入传递给
LSTM
层
、
、
、
我想做情绪分析使用伯特嵌入和
lstm
层
。这是我的密码:x =
bert
_preprocess(i)x = tf.keras.layers.Dropout(0.2, name="dropout")(x['pooled_output']) x = tf.keras.layers.
LSTM<
浏览 10
提问于2022-04-23
得票数 0
1
回答
向
Huggingface
转换器
添加
额外的
层
、
、
、
、
我想在预先训练好的TFDistilBertModel,TFXLNetModel和TFRobertaModel
Huggingface
模型
之后
添加
额外的Dense
层
。我已经了解了如何使用TFBertModel实现这一点,例如output = output[1]因此,这里
浏览 4
提问于2020-08-01
得票数 4
回答已采纳
1
回答
如
何在
伯特的基础上
添加
CNN
层
?
、
、
、
、
我只是在玩
bert
(来自变压器的双向编码器表示) 假设我想在
BERT
模型
的基础上
添加
任何其他
模型
或
层
,比如卷积神经网络
层
(CNN)、非线性
层
(NL)。我该怎么做?这就是我想要做的:📷 请说明使用sudo代码实现此操作的步骤,这将帮助我在
BERT
之上
实现cnn。
浏览 0
提问于2019-06-24
得票数 5
2
回答
伯特自我注意
层
、
我正在尝试为基本
模型
使用第一个单独的BertSelfAttention
层
,但我从torch.hub加载的
模型
似乎与hugginface transformers.models.
bert
.modeling_
bert
中使用的
模型
不同: tokenizer = transformers.BertTokenizer.from_pretrained('
bert
-base-uncased', do_lowe
浏览 0
提问于2021-05-05
得票数 0
回答已采纳
1
回答
EncoderDecoderModel转换解码器的分类器
层
、
、
我正在尝试使用序列到序列
模型
进行命名实体识别.我的输出是简单的IOB标记,因此我只想预测每个令牌(IOB)的3个标签的概率。我正在尝试使用
HuggingFace
实现EncoderDecoderModel --使用DistilBert作为编码器,以BertForTokenClassification作为解码器。,我可以清楚地看到具有out_features=3的线性分类
层
: ) (dropout): Dropout(p=0.1, inplace=False)/Decoder"
浏览 2
提问于2021-10-25
得票数 1
回答已采纳
3
回答
在
Huggingface
模型
顶部
添加
密集
层
、
、
、
、
我想在裸露的伯特
模型
转换器上
添加
一个密集的
层
,输出原始的隐藏状态,然后微调产生的
模型
。具体来说,我使用的是基础
模型
。这就是该模式应做的事情: 到目前为止,tokenizer = AutoTokenizer.from_pretrained("dbmdz/
bert
-base-
浏览 6
提问于2020-10-01
得票数 19
回答已采纳
1
回答
BERT
嵌入SPARKNLP或
BERT
在拥抱面标记分类中的应用
、
、
、
我有一个当前的实现,即在TokenClassification头上使用
Huggingface
,但是由于性能有点慢,而且代价很高,所以我试图找到优化的方法。我检查了SPARKNLP实现,该实现缺乏经过预先培训的DISTILBERT,我是否认为有一种不同的方法,因此出现了一些有关这方面的问题:
Huggingface
使用整个
BERT
模型
,并为令牌分类
添加
了一个头这与获取
BERT
嵌入并将它们提供给另一个NN相同吗?我这样问是因为这是SPARKNLP方法,它帮助获取这些嵌入并将其用作另一个复杂N
浏览 2
提问于2020-10-30
得票数 2
回答已采纳
1
回答
如何处理变压器编码器输出?
、
、
、
我正在学习变压器
层
,我觉得我已经有足够的一般想法,他们是危险的。我正在设计一个神经网络,我的团队想把它们包括进去,但我们不确定如何处理编码的序列,以及将它们插入
模型
的下一
层
的正确方法。我们想要处理它,以便我们可以插入编码序列到FC
层
后,立即变压器编码器。
浏览 0
提问于2022-07-21
得票数 2
回答已采纳
2
回答
具有保存和加载tensorflow
模型
的Isues,该
模型
使用拥抱脸部变压器
模型
作为其第一
层
、
、
、
嗨,我在保存和加载一个tensorflow
模型
时遇到了一些严重的问题,这个
模型
结合了人脸转换器和一些自定义的
层
来进行分类。我使用的是最新的
Huggingface
transformers keras版本。其思想是使用distilbert提取特征,然后通过CNN运行特征进行分类和提取。我使用的是tensorflow keras和tensorflow版本2.2
bert
浏览 31
提问于2020-05-17
得票数 3
3
回答
使用自定义X和Y数据训练TFBertForSequenceClassification
、
、
、
、
我正在研究一个TextClassification问题,我试图在
huggingface
-transformers库中给出的TFBertForSequenceClassification上训练我的
模型
。
浏览 6
提问于2020-02-29
得票数 9
4
回答
如
何在
未标记的数据上微调
BERT
?
、
、
、
我想在特定的域上对
BERT
进行微调。我在文本文件中有该域的文本。我如何使用这些来微调
BERT
?我目前正在寻找。 我的主要目标是使用
BERT
实现句子嵌入。
浏览 3
提问于2020-05-23
得票数 6
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
BERT的正确使用姿势
一文讲透预训练模型的改进训练算法 ,轻松达到State of the Art
EeSen、FSMN、CLDNN、BERT、Transformer-XL…你都掌握了吗?一文总结语音识别必备经典模型(二)
腾讯微信团队开源推理加速工具TurboTransformers
Pytorch用BERT对CoLA、新闻组文本数据集自然语言处理NLP:主题分类建模微调可视化分析
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券