腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
seq2seq模型
中
双向
LSTM
的
状态理解(tf角)
tensorflow
、
keras
、
lstm
、
bidirectional
、
seq2seq
我正在创建一个语言模型:一个包含2个双向
LSTM
层
的
seq2seq模型。我已经训练了这个模型,而且它
的
精度似乎很好,但是当我坚持想出推理模型
的
时候,我发现自己被每个
LSTM
层返回
的
状态弄糊涂了。我正在使用本教程作为指南,尽管这个链接
中
的
示例不是使用双向层:。 注意:我使用
的
是预先训练过
的
单词嵌入。我希望编码器将enc_state_h_fwd和enc_state_c_fwd转发给
解码器
。此连接由橙色箭
浏览 9
提问于2022-08-22
得票数 0
回答已采纳
1
回答
LSTM
解码器
中
的
Start
Token
tensorflow
、
keras
、
lstm
、
mencoder
我了解编码器-
解码器
模型,以及编码器
的
输出将如何成为
解码器
的
输入。假设这里我只有
解码器
模型,我有
解码器
initial_state (也就是给出了decoder_states_inputs )。我想让"decoder_inputs“作为开始令牌(例如<
start
> )...但是我不知道怎么做,以什么格式?!decoder_
lstm
=
LSTM
(n_units, return_sequences=True, r
浏览 133
提问于2019-01-14
得票数 0
回答已采纳
2
回答
Keras seq2seq堆叠层
keras
、
seq2seq
、
multi-layer
在tutorial:
中
,我们有一层seq2seq模型。我想在编码端和
解码器
端各增加一个层来扩展这个模型。训练似乎起作用了,但是我不能让
解码器
在多层
的
推理中正确设置。以下是我对教程中提到
的
模型所做
的
更改。, state_h, state_c = encoder2(x)encoder_states = [state_h, state_c] model = Model
浏览 3
提问于2018-09-23
得票数 2
1
回答
ValueError:尺寸必须相等,但为512和256个
python
、
tensorflow
、
deep-learning
、
lstm
、
rnn
我正在尝试使用Tensorflow 1.3.0实现文本摘要
的
seq2seq模型。在构建图表时,我得到了下面的错误。512 and 256 for 'decoding/decoder/while/BasicDecoderStep/decoder/multi_rnn_cell/cell_0/cell_0/basic_
lst
浏览 1
提问于2017-09-02
得票数 1
回答已采纳
1
回答
在seq2seq模型中使用双向
解码器
时如何进行推断?
keras
),name='encoder_
lstm
') decoded_sentence = '' states_value = decoder_sta
浏览 0
提问于2018-03-12
得票数 0
1
回答
有没有可能用keras做更长
的
输出长度?
keras
、
forecasting
、
rnn
我想预测一些与空间天气相关
的
指标(kp,Dst等)。使用RNN或
LSTM
。建立多对一模型是可能
的
,尽管它显示出较低
的
准确性。然而,我
的
目标是通过过去3天
的
观察来预测未来
的
7天。问题是,是否有可能在功能上构建具有更长输出长度(或时间步长)
的
RNN?而不是输入? 任何帮助都将不胜感激!请帮帮我。
浏览 13
提问于2018-08-16
得票数 1
回答已采纳
1
回答
如何在函数API
中
实现双向包装器?
python
、
tensorflow
、
keras
、
tensorflow2.0
双向层是否将编码器与
解码器
或
解码器
与
解码器
连接。这是编码器
的
三个部分,提供给下面的
解码器
。, h1, c1 =
LSTM
(256, return_state = True, return_sequences = True)(input_ctx_embed) encoder_
lstm
2,h2,c2 =
LSTM
(256, return_state = True, return_sequences = True)(encoder_
lstm
浏览 3
提问于2020-05-26
得票数 0
回答已采纳
1
回答
LSTM
(512)与LSTMCELL(512)
的
差异
python
、
tensorflow
、
keras
、
encoder-decoder
检查了源代码,但仍然难以找到tf.keras.layers.
LSTM
(512)和tf.keras.layers.LSTMCell(512)之间
的
区别。在许多编码器-
解码器
的
文章
中
,在编码器处使用
LSTM
(512),在
解码器
处使用LSTMCell(512)。谢谢!
浏览 11
提问于2022-06-04
得票数 0
2
回答
基于Keras
的
LSTM
多层Seq2Seq模型
tensorflow
、
keras
、
lstm
、
seq2seq
、
encoder-decoder
我已经构建了单层编码器和
解码器
,它们工作得很好。但现在我想把它扩展到多层编码器和
解码器
。我正在使用Keras Functional API构建它。)
解码器
代码:-decoder_input在
解码器
中
的
层训练,那么训练工作很好,但测试它不工作,并抛出错误。 实际上,问题是当我把它变成多层时,我把init
浏览 5
提问于2018-06-19
得票数 13
1
回答
强化学习--如何处理做数近似的不同数量
的
动作
machine-learning
、
neural-network
、
lstm
、
rnn
、
reinforcement-learning
我是一个加强学习
的
新手,但我试图在这个任务中使用RL:现在,为了实现这一点,我将遍历树
中
通向块
的
一条路径,并注意路径
中
的
任何数据更改和决策块。动作执行后,移动到树
中
的</
浏览 0
提问于2018-09-24
得票数 0
1
回答
如何将双向
LSTM
状态传递到较早
的
LSTM
层?
python
、
tensorflow
、
keras
、
lstm
我正在尝试使用编码器
LSTM
和
解码器
LSTM
创建seq2seq模型,这两个模型都使用Bidirectional层。我可以将隐藏状态和存储单元向前传递给
解码器
LSTM
,但我看不出如何将值从
解码器
传回编码器。
LSTM
层
的
initial_state。但是如果我用Bidirectional层包装这个Dec_
LSTM
1层,它就不会像我传递initial_state值那样中断。 我认为我不需要来自编码器
LSTM
层
的</e
浏览 1
提问于2021-02-23
得票数 1
2
回答
RepeatVector是做什么
的
?批处理学习对预测输出
的
影响是什么?
python
、
keras-layer
、
autoencoder
、
seq2seq
model = Sequential()model.add(
LSTM
(32, activation='relu', input_shape =(timesteps,n_features ), return_sequences=True))# Decoder model.add(
LST
浏览 30
提问于2019-10-07
得票数 4
回答已采纳
1
回答
长时间
LSTM
预测
python
、
machine-learning
、
pytorch
、
lstm
我正在使用一个
LSTM
,以5个序列作为输入来预测另一个5个,我想知道如何预测超过5个时间步骤。我想这和hidden_dim有关,但我想不出来。这是我
的
密码 def __init__(self, seq_len=5, n_features=256, n_hidden=256, n_layers= seq_len self.n_layers = n_layers self.l_
浏览 3
提问于2020-11-11
得票数 0
回答已采纳
1
回答
如何将单元状态从一个Tensorflow
LSTM
传递到另一个?
python
、
tensorflow
、
lstm
我正在用编码器/
解码器
模式编写一个德语->英语翻译器,其中编码器通过将其最后一个
LSTM
层
的
状态输出作为
解码器
LSTM
的
initial_state来连接到
解码器
。下面是代码
的
草图:
lstm
_1 = tf.keras.layers.
LSTM
( units = 3, return_sequences_1:\n
浏览 4
提问于2021-06-14
得票数 0
1
回答
在加载模型中将return_state=True设置为
LSTM
层
tensorflow
、
keras
我训练了一个编
解码器
模型,并将其保存到一个文件
中
,但结果发现我忘记了将
解码器
的
LSTM
层上
的
return_state标志设置为true。现在我无法实现推理。是否可以在构造函数之外为
LSTM
设置return_state标志?
浏览 0
提问于2019-05-08
得票数 0
回答已采纳
2
回答
为什么seq2seq模型优于简单
的
LSTM
?
machine-learning
、
deep-learning
、
transformer
在深度学习领域,众所周知,最强大
的
递归体系结构是序列到序列,或seq2seq,用于几乎任何任务(对时间序列
的
预测、机器翻译、文本生成)。 为什么?
LSTM
编解码结构
的
性能优于更规范
的
RNN
的
基本数学原因是什么?它是在产生密集
的
潜在表征吗?是关于相对较高
的
参数数吗?任何暗示都是感激
的
。
浏览 0
提问于2019-11-29
得票数 1
2
回答
编解码模型
中
双向
LSTM
的
数量是否等于输入文本/字符
的
最大长度?
lstm
、
word-embeddings
、
nlp
、
rnn
、
attention-mechanism
当我试图了解seq2seq编
解码器
如何在https://machinelearningmastery.com/configure-encoder-decoder-model-neural-machine-translation在我看来,编码器
中
的
LSTM
数量必须与文本
中
的
单词数(如果使用单词嵌入)或文本
中
的
字符(如果使用char嵌入)相同。对于字符嵌入,每个嵌入对应于1个方向
的
LSTM
和
浏览 0
提问于2020-05-20
得票数 0
1
回答
ValueError:层
lstm
_17
的
输入0与层不兼容:需要
的
ndim=3,找到
的
ndim=2。收到
的
完整形状:[None,128]
python
、
keras
、
runtime-error
、
google-colaboratory
、
tf.keras
代码如下: from tensorflow.keras.models import Sequential Embedding(vocab_size, 256, input_length=49),
LSTM
(128, return_sequen
浏览 140
提问于2020-10-06
得票数 1
回答已采纳
1
回答
Tensorflow
LSTM
返回什么?
python
、
tensorflow
、
lstm
我正在用编码器/
解码器
模式编写一个德语->英语翻译器,其中编码器通过将其最后一个
LSTM
层
的
状态输出作为
解码器
LSTM
的
输入状态来连接到
解码器
。但是,我被卡住了,因为我不知道如何解释编码器
的
LSTM
输出。一个小例子:
lstm
= tf.keras.layers.
LSTM
(units=4,
浏览 6
提问于2021-06-14
得票数 0
回答已采纳
1
回答
Keras如何在编码器
解码器
LSTM
中
初始化
解码器
第一状态?
python
、
tensorflow
、
lstm
、
keras-layer
、
encoder-decoder
我
的
理解是,在编码器
解码器
LSTM
中
,
解码器
的
第一状态与编码器
的
最终状态相同(包括隐藏状态和单元状态)。但我没有看到下面的代码(取自许多Keras教程)
中
显式编写
的
代码。model.add(
LSTM
(units, input_shape=(n_input, n_features),dropout=rdo, activation = keras.layers.LeakyReLU(alpha=0.2))) model.a
浏览 6
提问于2022-09-13
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券