腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
LSTM
中
的
NumHiddenUnits
、
当我们在matlab
中
创建
LSTM
层时,我们将
numHiddenUnits
指定为layer = lstmLayer(
numHiddenUnits
)。我对此有两个问题。(1):什么是
numHiddenUnits
? 它是否表示
LSTM
单元
的
数量?如果是,那么这些单元是串行连接还是并行连接(它们之间没有相互作用)。 不幸
的
是,没有办法可视化(RNN)网络。我知道一个
LSTM
单元是如何工作
的
,但是我不知道下面的架构是什么样子
浏览 623
提问于2020-04-30
得票数 1
1
回答
低
LSTM
中
的
NumHiddenUnits
、
、
、
、
当我们在matlab
中
创建
LSTM
层时,我们将
numHiddenUnits
指定为layer = lstmLayer(
numHiddenUnits
)。我有两个问题要问。(1):
numHiddenUnits
是什么意思?不幸
的
是,无法可视化(RNN)网络。我理解一个
LSTM
单元是如何工作
的
,但
浏览 9
提问于2020-04-30
得票数 1
回答已采纳
1
回答
连接数组
的
sequenceInputLayer()维数不一致
、
、
、
我试图创建一个
LSTM
模型。我得到以下错误: num_timesteps = size(Data,1)Data = normalize(Data);size(Data) layers
浏览 0
提问于2019-07-02
得票数 1
回答已采纳
1
回答
利用C++ mex函数从matlab
中
获取输入参数
、
、
, 1, 1, 0, 0, 0}, {0, 0, 1, 1, 1, 0},}; 0, 0, 1, 1, 1, 0; ...
numHiddenUnits
= 6;
浏览 6
提问于2015-10-20
得票数 0
1
回答
如何在MultiRNNCell
中
重用权重?
、
、
在我
的
代码
中
,我现在有:from tensorflow.contrib import rnn scope.reuse_variables()我希望
浏览 2
提问于2017-05-12
得票数 0
回答已采纳
1
回答
嵌入层值错误后
的
LSTM
:符号张量不是吗?
由于某些原因,我无法在我
的
模型
中
添加一个
LSTM
层:
LSTM
=Sequential()
LSTM
.add(
LSTM
(30, return_sequences=True,name='
lstm
_layer'))
浏览 3
提问于2018-09-17
得票数 1
回答已采纳
2
回答
在matlab
中
建立序列折叠层
的
目的是什么?
、
、
、
、
在MATLAB
中
为一维时间序列信号分类设计CNN时,得到了二维卷积层不以序列作为输入
的
误差。根据我
的
理解,完全有可能使用3x1过滤器来转换“数组”。这样一个序列折叠层
的
功能是什么,如何改变体系结构?
浏览 0
提问于2021-02-03
得票数 2
回答已采纳
1
回答
LSTM
层某些值
的
Keras级联
、
、
我不确定这在Keras
中
是否可行,但我想知道是否有任何方法连接来自
LSTM
层
的
特定值。我希望使用
LSTM
对整个序列进行编码,但对于预测,只使用特定
的
列。例如: ,我使用两个大小为5
的
输入序列(因此,我
的
输入形状是一个输入是(无,5)和(无,5)。然后嵌入序列,我
的
输入形状是(None,5,300)和(None,5,300),然后我用带有200个
LSTM
单元
的
LSTM
层编码序列,最后
的</em
浏览 0
提问于2019-11-13
得票数 0
回答已采纳
1
回答
在功能模式下使用
LSTM
时
的
问题
、
import numpy as np out =
LSTM
(hidden_dim, input_shape=(1, 129))(
lstm
_input)
lstm
_input = Input(shape=(129, ), name='
lstm
_input') out =
浏览 2
提问于2019-05-03
得票数 0
1
回答
"ValueError:输入到“平面”
的
形状没有完全定义为“具有可变长度
的
LSTM
”
、
、
、
、
这是我
的
密码: from keras.modelsimport Model
lstm
_out = Bidirectional(
LSTM
(10, return_sequences=True))(input) something = Flatten()(
lstm
_out
浏览 0
提问于2018-10-28
得票数 2
回答已采纳
1
回答
基于
LSTM
的
脑电信号分类体系结构
、
、
、
、
我有一个多类分类问题,我在python3.6
中
使用了keras & tensorflow。我基于本文中提到
的
“叠层
LSTM
层(a)”实现了高精度
的
分类:。有些事情是这样
的
:model.add(
LSTM
(128), return_sequences=True) model.add(
LSTM
(64), retu
浏览 5
提问于2021-01-20
得票数 2
回答已采纳
1
回答
不一致-从数据
中
删除行仅部分工作。
、
、
我正在使用一组从csvs读取到数据文件
中
的
时间序列。每个dataframe都有一个DateTime索引,我将数据分配给一个列表,以便我可以在循环中使用等等:然后,我进行了一些数据处理和清理,其中删除了yhat_
lstm
的
第一行,使其与所有其他数据格式
的
形状相匹配: yhat_
lstm
= yhat_
lst
浏览 4
提问于2020-09-01
得票数 0
1
回答
如何构造具有外部特征
的
时间序列多步视界
的
LSTM
输入数据?
、
、
、
、
我试着用
LSTM
做商店销售预测。在这个例子
中
,我需要预测从01-01-2017到01-10-2017
的
商店销售额。我知道如何使用其他时间序列模型或回归模型来解决这个问题,但我想知道RNN是否是一个很好
的
选择。首先,我只使用 storeID=1 data来测试
LSTM
。如果我
的
数据只有日期和销售。在重新塑造两人之后(300, 1, 20)(300, 10) Question1:在本例
中
是,示例、时间步骤、特性= 30
浏览 3
提问于2017-03-03
得票数 18
1
回答
了解
LSTM
的
输出形状
、
、
、
、
使用print(rnn_forecast.shape) > (3172, 64, 1),我们为什么要在第二维得到64
的
形状
的
预报?在final_result=rnn_forecast[split_time-window_size:-1, -1, 0]
中
,为什么我们在第2维指定-1来得到我们想要
的
,如预测图中所示?4, strides=1, padding="causal",activation="relu", input_shape=[None, 1])) model.add(
浏览 4
提问于2021-08-12
得票数 0
1
回答
在Tensorflow
中
,如何将一个
LSTM
的
输出和文本一起输入另一个
LSTM
?
、
、
、
我试图将一个
LSTM
层
的
输出输入到另一个
LSTM
层,以及该层
的
文本。提供给两个
LSTM
的
文本是不同
的
,我
的
目标是第二个
LSTM
在第一个
LSTM
理解
的
基础上提高对其文本
的
理解。我可以尝试在Tensorflow
中
这样实现它:rnn_inputs = tf.nn.embeddi
浏览 0
提问于2018-02-02
得票数 0
回答已采纳
1
回答
pytorch
中
num_layers =2
的
1个
LSTM
和2个
LSTM
的
差异
、
、
、
我是深度学习
的
新手,目前正在使用
LSTM
进行语言建模。我正在看pytorch文档,被它搞糊涂了。如果我创建一个当hidden_size =4和num_layers = 2时,我想我会有一个类似如下
的
架构:
LSTM
->
LSTM
-> h3
LSTM
->
LSTM<
浏览 9
提问于2018-03-12
得票数 18
回答已采纳
1
回答
那么
LSTM
的
陷阱是什么呢?
、
、
、
我正在扩展我对Keras包
的
知识,并且我一直在使用一些可用
的
模型。我有一个NLP二进制分类问题,我正在试图解决,并一直在应用不同
的
模型。在使用了一些结果并阅读了越来越多关于
LSTM
的
内容之后,这种方法似乎比我尝试过
的
任何其他方法(跨多个数据集)都要好得多。我一直在想,“你为什么/什么时候不使用
LSTM
?”使用额外
的
门,固有的
LSTM
,使我完全有意义后,有一些模型遭受消失
的
渐变。 那么
LSTM</em
浏览 0
提问于2018-02-02
得票数 13
2
回答
如何将基于元组
的
tf.nn.MultiRNNCell
的
前一个状态传递给TensorFlow
中
的
下一个sess.run()调用?
我正在使用一个用tf.nn.MultiRNNCell构建
的
final_state堆栈,我想将RNN传递给下一个图形调用。既然提要字典
中
不支持元组,那么堆叠单元格状态并对输入进行切片以在图
的
开头生成元组是实现这一目标的唯一方法吗?还是说TensorFlow
中
的
某些功能允许这样做?
浏览 1
提问于2016-09-08
得票数 1
回答已采纳
1
回答
Tensorflow Keras -叠加
LSTM
层时
的
误差
、
、
、
我有以下
的
层序。在混合
中
添加额外
的
LSTM
会产生以下错误,我无法真正理解。tf.keras.layers.
LSTM
(64), tf.keras.layers.Dropout(0.25),产生
的
结果: ------------------
浏览 5
提问于2019-10-26
得票数 1
回答已采纳
1
回答
PyTorch
LSTM
辍学与Keras辍学
、
、
、
我正在尝试将我
的
顺序Keras网络移植到PyTorch。但我在
LSTM
单位遇到麻烦了 stateful = False, dropout = 0.5),
LSTM
尤其是辍学在PyTorch
中
的
工作方式与在Keras
中
的
工作方式非常不同。
浏览 2
提问于2020-06-09
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
理解LSTM中的各种阀
Bi-LSTM+CRF在文本序列标注中的应用
只有遗忘门的LSTM性能优于标准LSTM
正在“堕落”的RNN和LSTM
XGBoost+LightGBM+LSTM:一次机器学习比赛中的高分模型方案
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券