问题类似于这个What's the input of each LSTM layer in a stacked LSTM network?,但更多的是关于实现细节。
为了简单起见,下面这样的4个单元和2个单元结构如何
model.add(LSTM(4, input_shape=input_shape, return_sequences=True))
model.add(LSTM(2,input_shape=input_shape))
所以我知道LSTM_1
的输出是4个长度,但是接下来的2个单元如何处理这4个输入,它们是否完全连接到下一层节点?
我猜它们是完全连接的,但不确定如下图所示,这在Keras document中没有说明
谢谢!
发布于 2020-05-17 17:00:34
这不是长度4,而是4个“特征”。
长度是在输入形状中,它永远不会改变,当你给一个LSTM一个常规输入时发生的事情和当你给另一个LSTM输出一个LSTM时发生的事情是绝对没有区别的。
您只需查看模型的摘要,即可查看形状并了解所发生的情况。您永远不能使用LSTM更改长度。
他们根本不交流。每一个都获取长度维度,递归地处理它,彼此独立。当一个完成并输出张量时,下一个获得张量,并按照相同的规则单独处理它。
https://stackoverflow.com/questions/61844967
复制相似问题