腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
keras
LSTM
应该在
没有
input_shape
参数
的
情况下
工作
吗
?
、
、
、
、
我正在使用
LSTM
进行假新闻检测,并在模型中添加了一个嵌入层。 它
工作
得很好,不需要在
LSTM
函数中添加任何
input_shape
,但我认为
input_shape
参数
是必需
的
。有人能帮我解释一下为什么
没有
定义
input_shape
也
没有
错误
吗
?是不是因为嵌入层隐式定义了
input_shape
代码如下: model=Sequential() embedding_layer = Em
浏览 51
提问于2021-10-14
得票数 2
回答已采纳
1
回答
Keras
消息
、
、
、
、
我尝试过做类似的教程;太阳黑子预测教程、污染多元教程等等,但我仍然不了解
input_shape
参数
是如何
工作
的
,也不知道如何组织我
的
数据以使它被
keras
所接受。我
的
数据集是一个单一
的
时间序列,描述了我们每个月销售
的
产品数量。我用了107个月
的
时间序列,把它转换成一个30行77列
的
数据集。我创建了一个训练集和测试集。但是,无论我做什么,我都无法通过,即使只是创建一个模型,
没有
某种错
浏览 1
提问于2019-02-14
得票数 0
回答已采纳
1
回答
调用层“顺序”时遇到
的
异常
、
、
、
、
我正在尝试使用tensorflow和
keras
构建一个文本生成器。我正在使用train.py文件中
的
代码,这些代码可以在以下网站上找到:。下面是我正在运行
的
代码
的
片段。在这里,"inputz“是用于训练模型
的
文本字符串
的
变量名:import numpy as npimport picklefrom
浏览 1
提问于2021-11-24
得票数 0
1
回答
添加
LSTM
层但获得所需
的
位置
参数
:“单元”错误
、
、
、
我正在尝试运行我
的
第一个机器学习模型。然而,我得到了下面的错误。(return_sequences=True) TypeError:init()缺少一个必需
的
位置
参数
:“单位” from tensorflow.python.
keras
.layers import Dense,
LSTM
, Dropout model.add=True
浏览 0
提问于2019-03-28
得票数 3
回答已采纳
1
回答
常规tensorflow ops在推理过程中不受解释器错误
的
支持
、
、
、
、
我目前正在尝试将使用Tensorflow (v2.7.0)和
Keras
训练
的
保存模型转换为Tensorflow Lite模型。该模型
的
结构如下:model_
lstm
.add(Masking(mask_value=max_int,
input_shape
=(15, 4)))relu")) model_
lstm
.add(TimeDistributed(Dense(4, activation = "so
浏览 30
提问于2021-12-22
得票数 0
1
回答
Tensoflow2
LSTM
-未使用
的
参数
input_shape
?
、
、
、
、
因此,我用以下代码构建了神经网络:tf_model.add(tf.
keras
.layers.
LSTM
(50, activation='relu'))tf_model.add(tf.
keras
.layers.Dense
LSTM
浏览 2
提问于2020-05-02
得票数 2
回答已采纳
1
回答
tensorflow双向层定义输出形状
、
、
、
tf.
keras
.layers.Bidirectional(tf.
keras
.layers.
LSTM
(2),
input_shape
=x_train_final.shape[-2:]),tf.
keras
.layers.Dense(units=horizon)tf.
keras
.layers.Bidirectional(tf.<
浏览 5
提问于2022-07-19
得票数 0
回答已采纳
1
回答
凯拉斯: input_length,input_dim,output_dim等在哪里?
、
、
当我试图使用
keras
构建一个
lstm
模型时。我在互联网上看到很多模型,它们
的
参数
设置与代码类似,如下所示:from
keras
.layers.recurrent import
LSTM
input_shape
=(2, 3),re
浏览 0
提问于2021-05-10
得票数 2
1
回答
在
Keras
中使用带有递归层
的
TimeDistributed
、
、
我想在每一批上运行一个
LSTM
,在几个不同
的
序列上,然后加入最后
的
输出。以下是我一直在尝试
的
:
lstm
_outputs = TimeDistribu
浏览 0
提问于2017-06-21
得票数 0
回答已采纳
4
回答
如何清楚解释
Keras
中单元
参数
的
含义?
、
、
我想知道
LSTM
在
Keras
是如何
工作
的
。例如,在中,就像在其他许多地方一样,您可以找到如下内容:"4“是什么意思。是层中神经元
的
数目。事实上,答案是:在这种
情况下
?我之前提到
的
事有麻烦了..。而且,它说,
浏览 0
提问于2018-08-20
得票数 8
回答已采纳
2
回答
当连接模型时,
Keras
没有
得到任何梯度错误。
、
、
我试图用
Keras
来实现一个视觉讲故事模型,它有一个层次RNN模型,基本上是一个神经图像描述器
的
样式,但是在解码器RNN上有一个双向RNN
的
一系列照片上。我分别实现并测试了该模型
的
三个部分: CNN、BRNN和解码器RNN,但是当试图连接它们时,得到了这个错误: br
浏览 0
提问于2018-03-24
得票数 6
1
回答
在
Keras
LSTM
中添加双向会导致RuntimeError(‘在使用模型之前必须编译模型’)。
、
、
我在做: seq_length, feature_dim), return_sequences=True)))self.model.add(Bidirectional(
LSTM
(
lstm
3_si
浏览 9
提问于2020-02-19
得票数 0
回答已采纳
1
回答
ValueError:尺寸必须相等,但{{节点均方_平方_误差/平方差}}= SquaredDifference[T=DT_FLOAT]为68和10
、
、
、
、
我使用
LSTM
和VNN将主动文本转换为被动文本。我把标记化
的
数据输入到
lstm
中,得到形状
的
特征向量(68,1),然后使用它作为香草神经网络
的
输入数据以及形状
的
输出概率矩阵(68,10,10)。我建立
的
模型代码是:
lstm
.add(
LSTM
(10,
input_shape
=(1,10)))feature
浏览 10
提问于2022-09-26
得票数 3
回答已采纳
2
回答
在
没有
return_sequences
的
情况下
,如何在
keras
中叠加多个
lstm
?
、
、
这是我
的
密码model.add(
LSTM
(256,
input_shape
=(look_back, x_train.shape[1])))model.add(Dropout(0.3)) 然后发生ValueError: Input 0 is incompatible with layer
浏览 17
提问于2019-08-03
得票数 1
回答已采纳
1
回答
LSTM
层递归神经网络张量
的
重构
、
、
、
我试着训练一个神经网络,我
的
X输入形状是(5018, 481),y标签输入形状是(5018,)。模型体系结构:
keras
.layers.Dense(100, activation='elu',
input_shape
=(481,)),
keras
.layers.
LSTM
(64, return_sequences=False, dropout=0.1, recurrent_dropout=0.1),
浏览 5
提问于2019-12-19
得票数 0
回答已采纳
3
回答
使用非符号张量
keras
的
输入调用
的
图层
、
、
、
我正在尝试将一个层
的
输出传递到两个不同
的
层中,然后将它们连接在一起。然而,我被这个错误阻止了,它告诉我我
的
输入不是符号张量。Received type: <class '
keras
.layers.recurrent.
LSTM
'>. All inputs to the layers should be tensors.但是,我相信我非常仔细地遵循了文档: 并且不能完全确定为什么这是错误
的
?net_input = Input(shape=(maxlen, le
浏览 2
提问于2017-07-01
得票数 22
2
回答
了解Flatten在
Keras
中
的
作用,并确定何时使用它
、
、
、
我正在努力理解为时间序列预测开发
的
模型。它使用一个Con1D层和两个
LSTM
层,然后是一个密集层。我
的
问题是,它是否
应该在
LSTM
和更密集
的
层之间使用Flatten()?如果
没有
Flatten(),输出形状将是(None, 30, 1)。或者,我可以从第二个
LSTM
层中删除return_sequences=True,我认为这与Flatten()具有相同
的
效果。它们会影响损失
吗
?这是模型。padding="c
浏览 2
提问于2020-07-08
得票数 1
回答已采纳
2
回答
在
Keras
中向自动编码器添加多层
、
、
、
、
我想在
LSTM
自动编码器上添加一个多层。倍增层应将常量值
的
张量相乘。我写了下面的代码,这些代码不需要多重层。有谁知道如何调整并使其正常
工作
吗
?import Input,
LSTM
, RepeatVector, TimeDistributed TypeError: __init__() missing 1 required positional ar
浏览 0
提问于2018-11-03
得票数 0
2
回答
如何使用Tensorflow2.0 2.0α叠加卷积层和
LSTM
?
、
、
、
_26641] 一开始,我试图检查是否存在与用Conv1D层实现
LSTM
层有关
的
任何问题。我找到了,这意味着我重塑了卷积层和
lstm
层之间
的
层。但这仍然不起作用,而我却得到了另一个错误。看起来很相似,但它
没有
使用Tensorflow 2.0,而且目前还
没有
回答。我还发现这个帖子有同样
的
意图,堆叠一个卷积层和
lstm
层。但是它使用
的
是Conv2D而不是Conv1D。还建议使用一个内建层Reshape来重塑卷积层
的
输出。
浏览 0
提问于2019-04-18
得票数 4
回答已采纳
1
回答
如何选择
LSTM
Keras
参数
?
、
、
、
、
我在输入中有多个时间序列,我想正确地构建一个
LSTM
模型。model.add(
keras
.layers.
LSTM
(hidden_nodes,
input_shape
=(window, num_features), consume_less="mem"))model.add(
keras
.layers.Dense(num_features, activation
浏览 3
提问于2017-07-24
得票数 10
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
10个算法从业人员必须知道的TensorFlow技巧
基于深度学习的图像目标识别预测
详解:从脑波到机器人运动,使用深度神经网络对大脑活动进行解码
详解:从“脑波”到“机器人运动”,如何使用深度神经网络对大脑活动进行解码?
简单3步,用 LSTM 创造一个写诗机器人
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券