腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7467)
视频
沙龙
1
回答
如何添加关注层二进制分类RNN
python
、
keras
、
deep-learning
、
lstm
visible = Input(shape=(251,))
bilstm
= Bidirectional(LSTM
浏览 2
提问于2018-12-03
得票数 2
1
回答
ValueError在`categorical_crossentropy`损失函数中的应用:形状问题
python
、
python-3.x
、
tensorflow
、
keras
、
named-entity-recognition
130, return_sequences=True,state_c = Concatenate()([fo
浏览 3
提问于2020-11-14
得票数 0
1
回答
如何从tf估计中得到张量(而不是变量)?
python
、
tensorflow
、
deep-learning
一旦模型被训练,我想得到张量"
attention
_a“。它不是一个变量。所以,我无法使用get_variable_value()获得它。def
bilstm
_fn(features, labels, mode, params): with tf.variable_scope("
Attention
", reuse=tf.AUTO_REUSE): e = tf
浏览 1
提问于2019-01-21
得票数 0
回答已采纳
1
回答
使用Keras进行语句级编码
keras
、
deep-learning
、
python-3.6
、
lstm
、
attention-model
truncating='post') for sen in seqs2_fixed]words_concat1 = concatenate(embedding_input1, axis=-1) # shape=(None, 100, 25000)
bilstm
_out1=
bilstm
(words_concat1) # shape=(None, 100, 2
浏览 16
提问于2020-01-14
得票数 0
1
回答
无法保存模型架构(
bilstm
+注意)
python
、
tensorflow
、
nlp
、
multilabel-classification
、
attention-model
EMBEDDING_DIM, trainable=False)(inp) x_1_bn = tf.keras.layers.BatchNormalization()(x_1_
bilstm
) x_2_
bilstm
= tf.keras.layers.Bidirec
浏览 1
提问于2020-06-19
得票数 2
回答已采纳
2
回答
使用Pytorch LSTM模块时尺寸不匹配
python
、
machine-learning
、
deep-learning
、
pytorch
、
lstm
SelectBackward>)]def custom_model(input_embedding): #feed input to
bilstm
object bi_output, bi
浏览 1
提问于2019-10-23
得票数 1
回答已采纳
1
回答
基于前M和以下N元素的序列元素预测
keras
、
lstm
、
pytorch
、
sequence
、
deep-learning
我正在考虑使用Keras
BiLSTM
模型解决此任务的以下步骤:在火车集合上训练
BiLSTM
以预测序列中任何地方的下一个数目请回答以下问题:在这种情况下,我应该创建哪些数据结构和编码来训练和预测Keras <e
浏览 0
提问于2020-07-13
得票数 2
回答已采纳
1
回答
递归神经网络ValueError:发现带有dim 3的阵列.估计器期望<= 2
python
、
lstm
我使用以下代码运行LSTM、GRU和
bilstm
模型def create_model_
bilstm
(units): #Compile model return model #
BiLSTM
model_
bilstm
= create_mode
浏览 1
提问于2020-10-14
得票数 2
回答已采纳
2
回答
PyTorch: nn.LSTM在同一批中为相同的输入输出不同的结果
python
、
lstm
、
pytorch
我希望
BiLSTM
的输出在批处理维度上是相同的,即out[:,0,:] == out[:,1,:] == out[:, 2, :]。import torch seq_len, batch = 4, 3 x = torch.cat((a, a, a), dim=1)
浏览 2
提问于2018-10-31
得票数 0
1
回答
带Keras的双LSTM:尺寸必须相等,但必须是7和300
python-3.x
、
keras
embedding_matrix],model.add(embedding_layer) model.add(
bilstm
_layer) model.add(Dense(300,
浏览 6
提问于2022-11-07
得票数 0
回答已采纳
1
回答
如果我们使用BERT,是否需要一个
BiLSTM
层?
lstm
、
bert
、
named-entity-recognition
我对基于深度学习的NLP是新手,我有一个疑问--我正在尝试建立一个NER模型,我发现了一些人们依赖于BERT-
BiLSTM
模型的期刊。现在我的问题是--如果上下文是在使用BERT嵌入word的过程中捕获的,为什么我们需要另一层
BiLSTM
呢?
浏览 0
提问于2021-01-06
得票数 5
回答已采纳
3
回答
什么是LSTM,
BiLSTM
以及什么时候使用它们?
machine-learning
、
deep-learning
、
rnn
、
lstm
我对深度学习非常陌生,我特别感兴趣的是了解什么是LSTM和
BiLSTM
,以及何时使用它们(主要的应用领域)。为什么LSTM和
BILSTM
比RNN更受欢迎?
浏览 0
提问于2017-12-14
得票数 21
回答已采纳
1
回答
易用优化模型推理的帮助
python
、
pytorch
、
ocr
我已经训练了一个自定义模型,我有yaml文件和pth文件以及py文件在正确的目录中。但现在我要面对这个错误in----> 2 reader = easyocr.Reader(lang_list=['en'],recog_network='best_accuracy') /usr/local/lib/python3.7/dist-packages/easyocr/recognition.py in get_reco
浏览 0
提问于2022-09-21
得票数 0
0
回答
Keras中具有批归一化的双向LSTM
python
、
keras
、
lstm
、
recurrent-neural-network
、
keras-layer
我想知道如何在Keras中实现具有批处理规范化(BN)的
biLSTM
。我知道BN层应该介于线性和非线性之间,即激活。这很容易用CNN或密集层实现。但是,如何使用
biLSTM
做到这一点呢? 提前谢谢。
浏览 4
提问于2017-06-22
得票数 10
回答已采纳
1
回答
应该使用哪个
BiLSTM
层的输出进行分类
python
、
lstm
、
pytorch
、
text-classification
我试图为文本分类问题实现一个
BiLSTM
层,并为此使用PyTorch。self.
bilstm
= nn.LSTM(embedding_dim, lstm_hidden_dim//2, batch_first=True, bidirectional=True)现在,在一些例子中(我在互联网上看到),人们正在通过ht通过Linear层并生成输出。
浏览 0
提问于2021-04-29
得票数 0
1
回答
自定义LSTM模型在火炬中显示输入尺寸不匹配
machine-learning
、
deep-learning
、
pytorch
__init__() self.num_layers = num_layers out, hidden = self.
bilstm
batch_size, seq_length, hidden_size) #concat hidden state of
浏览 1
提问于2019-10-24
得票数 0
回答已采纳
1
回答
无法加载word2vec模型
python
、
gensim
我能够在本地机器上加载模型,但是在AWS上加载# LOCAL MACHINEWV_MODEL = 'model_train_script/models/
bilstm
_models)# AWS
浏览 11
提问于2022-03-03
得票数 0
回答已采纳
1
回答
如何从预测函数中获取最高值数组的指标?
python-3.x
、
data-science
、
recurrent-neural-network
给出输出: 0.12673968076705933,0.1556280255317688,0.031753458082675934,0.6858788132667542 该网络使用顺序与隐藏层(嵌入,
BiLSTM
,
BiLSTM
,密集,密集)
浏览 9
提问于2022-02-04
得票数 0
回答已采纳
1
回答
BERT details +如何在Keras
biLSTM
模型中使用BERT的序列输出?
keras
、
deep-learning
、
nlp
、
bert-language-model
、
word-embedding
我正在试验一个
biLSTM
模型和2种不同的嵌入技术(FastText,BERT)在两个不同级别(单词、句子)上的应用,它们都用于二进制文本分类任务。我的
biLSTM
模型在Keras中: ,,我在这里如何准确地使用伯特的序列输出?(类似于通过嵌入层中的嵌入矩阵传递权重)建议首先在序列输出(或BERT)之上使用
biLSTM
模型吗?,如果
biLSTM
模型是必要的,那么只使用伯特的768维嵌入是有意义的,还是常规的序列输出是可能的?当使用伯特?时,当我将可训练性设置为False时,应该什么时候设置为可训练为False?
浏览 9
提问于2022-03-02
得票数 0
1
回答
将word2vec嵌入传递给自定义的LSTM pytorch模型
deep-learning
、
pytorch
、
lstm
__init__() self.num_layers = num_layers out, hidden = self.
bilstm
(x, (h0, c0)) fw_
bilstm
= out[-1, :, :self.hidden_s
浏览 1
提问于2019-11-12
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Recurrent Models of Visual Attention
NLP之Attention从入门到精通
观点型问题阅读理解
自然语言处理之基于biLSTM的pytorch立场检测实现
Seq2seq模型(一)——attention机制
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券