腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
Keras
中
为
每个
时间
步长
应用
不同
的
致密
层
keras
、
neural-network
、
recurrent-neural-network
、
keras-layer
、
gated-recurrent-unit
我知道
应用
TimeDistributed(密集)在所有
时间
步长
上
应用
相同
的
密集
层
,但我想知道如何为
每个
时间
步长
应用
不同
的
密集
层
。
时间
步数是不变
的
。
浏览 19
提问于2019-07-04
得票数 1
回答已采纳
4
回答
Keras
中
具有掩蔽支持
的
平均池或最大池
python
、
masking
、
keras
、
lstm
、
pooling
我需要能够在LSTM
层
之后
的
样本
中
取所有
时间
步长
的
向量
的
均值或最大值,然后才能将该均值或最大值向量提供给
Keras
中
的
致密
层
。使用return_sequences=True,我可以获得样本
中
LSTM
层
之后所有
时间
步长
的
向量。然而,GlobalAveragePooling1D()与掩码不兼容,它
浏览 4
提问于2016-09-15
得票数 8
1
回答
tf.nn.ctc_loss在cnn+ctc网络
中
的
应用
tensorflow
、
deep-learning
、
speech-recognition
、
conv-neural-network
最近,我尝试使用tensorflow来实现基于文章cnn+ctc
的
网络。这是我
的
问题:我想在tensorflow库中使用tf.nn.ctc_loss函数,但是它生成输入形状
为
:?,1024,3
的
ValueError:维度必须是2,但对于“T
浏览 1
提问于2017-06-26
得票数 1
1
回答
可变序列
的
LSTM &返回全序列
keras
如何建立
keras
模型,以便最终
的
LSTM
层
在输入可变序列长度
的
同时输出
每个
时间
步骤
的
预测值? 整形和
致密</
浏览 2
提问于2016-12-30
得票数 0
1
回答
LSTM之后是
Keras
的
稠密
层
deep-learning
、
keras
、
lstm
我正在研究LSTM和LSTM AutoEncoders,使用
Keras
为
多变量
时间
序列数据尝试
不同
类型
的
体系结构。:当我检查参数
的
数量时,要确定这一点。密集
层
具有number_of_features \times (nu
浏览 0
提问于2020-11-10
得票数 3
回答已采纳
1
回答
为
conv1D
Keras
神经网络找到正确
的
输入和输出形状
python
、
tensorflow
、
keras
、
input
、
conv-neural-network
我构建了一个LSTM模型来分析
时间
序列,输入矩阵X
的
大小
为
( 1750,20,28),长度
为
1750,序列长度
为
20和28个特征。实际上,我将我
的
原始X矩阵包含28个特征,并创建了一个具有长度
为
20
的
滑动窗口
的
3D矩阵。y矩阵
的
大小
为
(1750 ),我成功地将其用于LTSM (输入形状= X_train1,X_train2)。它与第一
层
model.add(layer_LSTM1)或
浏览 19
提问于2020-08-13
得票数 1
1
回答
Keras
,预期
为
3,但得到了形状
为
[]
的
数组
keras
、
lstm
、
rnn
、
named-entity-extraction
我试图从带注释
的
文本
中
找出与单词相关
的
标签。我正在使用bidirectional LSTM。我有X_train,它
的
形状是(1676,39)和Y_train,形状相同
的
(1676,39)。我无法找到如何为
Keras
模型提供合适
的
维数。
浏览 0
提问于2018-09-21
得票数 0
2
回答
"RepeatVector“和"TimeDistributed”
的
工作是什么?
keras
、
lstm
我在
Keras
文档和其他网站上读到了它们,但是我无法确切地理解它们到底是做什么
的
,我们应该如何使用它们来设计many-to-many或encoder-decoder LSTM网络?我看到他们在这个问题在这里
的
解决方案中使用。RepeatVector(10)) model.add(LSTM(output_dim=hidden_neurons,return_sequences=True)) model.add(TimeDistributed(
致密
浏览 0
提问于2019-03-01
得票数 20
回答已采纳
1
回答
在单个密集
层
上使用TimeDistributed有什么
不同
吗?
python
、
tensorflow
、
keras
、
deep-learning
在单个密集
层
周围添加TimeDistributed包装器有什么
不同
吗?两者都具有相同数量
的
参数(2,208)和相同
的
输出形状(无,6,32)。这样做
的
目的是我有一个6个
时间
步长
的
数据序列,
每个
时间
步有64个我想要通过密集
层
的
特征。# With TimeDistributedm.add(
keras
浏览 13
提问于2019-03-13
得票数 2
回答已采纳
3
回答
为什么不使用扁平,然后是密集
层
,而不是TimeDistributed?
tensorflow
、
machine-learning
、
keras
、
lstm
、
keras-layer
我正在努力更好地理解
Keras
层
。我正在开发一个序列序列模型,在该模型
中
嵌入一个句子并将其传递给返回序列
的
LSTM。接下来,我想在句子
中
的
每个
时间
步长
(word)上
应用
一个密集
的
层
,就像TimeDistributed
为
像这个例子一样
的
三维张量所做
的
工作。在我
的
理解
中
,稠密
层
只
浏览 2
提问于2018-12-07
得票数 6
回答已采纳
1
回答
如
何在
Tensorflow
中
构建一对多RNN
python
、
tensorflow
、
keras
、
one-to-many
、
recurrent-neural-network
我是RNN
的
新手,我想使用Tensorflow构建一个一对多
的
RNN。我
的
模型
中
的
“一个”输入是一个3个坐标的向量(类似于x0,y0,z0),而我希望实现
的
“许多”输出是一个由50个数字组成
的
序列,
每个
时间
步对应一个数字。例如,我在三维空间中给出了这个单点,比如P= 1,2,3,我希望预测一个50个数字
的
序列,表示该点50个连续
时间
步长
的
温度。 我搜索了很多关于示
浏览 0
提问于2020-10-09
得票数 1
1
回答
连接
Keras
中
的
掩码输入
python
、
tensorflow
、
keras
、
neural-network
、
recurrent-neural-network
使用
Keras
API,我尝试构建一个神经网络模型,如下所示。我有两个输入,
每个
输入都是分类
时间
序列,它们已经转换为一次hots。在一个批次
中
,
时间
序列通常具有
不同
的
长度,因此我用零填充它们,使其达到相同
的
长度。我想首先对
每个
输入
应用
一个掩蔽
层
,以便忽略填充,然后对
每个
输入
应用
TimeDistributed密集
层
,最后在将结果传递到LSTM之前连
浏览 0
提问于2021-07-07
得票数 0
1
回答
将
keras
中
的
conv2d逐帧
应用
于视频输入
keras
我想对
Keras
中
的
视频输入分别
应用
Conv2D,然后是AveragePooling2D。视频大小
为
( 60 ,32,32,3) -60个
时间
帧,32x32帧大小和3个颜色通道。Full shape received: (None, 45, 30, 30, 16) 解决这个问题
的
方法是什么?谢谢。
浏览 13
提问于2021-03-09
得票数 1
1
回答
理解叠
层
LSTM
层
tensorflow
、
keras
、
lstm
、
recurrent-neural-network
)regressor.add(Dropout(0.2))注意,所使用
的
时间
步长
为
第一
层
是具有50个单元
的
(none,60,50)
层
,因此输出是形状
为
(none,60,50)
的
三维矩阵,这意味着它将在每一
时间
步返回50个单元
的
状态,因此,对于每一个单元,它将为
每个
浏览 4
提问于2022-11-15
得票数 0
回答已采纳
1
回答
LSTM
中
存储单元与
时间
步长
的
关系
keras
、
lstm
、
timestep
LSTM
中
隐藏
层
的
一个存储单元是否对应一个
时间
步?示例代码) model.add(LSTM(128,input_shape = (4,1)但是,典型
的
LSTM图像与
时间
步长
和存储单元
的
数量1: 1对应。正确答案是什
浏览 10
提问于2020-05-09
得票数 0
2
回答
用于HSI数据分类
的
LSTM
python
、
keras
、
deep-learning
、
lstm
、
recurrent-neural-network
X_train数据
的
形状
为
(610x340,103),y_train数据
的
形状
为
(610x340)。一共有9个班级。因此,我有207400个样本,其中有103个特征(
每个
时间
步1个特征)。我应该如何重塑我
的
数据,其中
每个
样本都是具有一个特征
的
103个
时间
步长
的
时间
序列,以便使用LSTM进行分类?
浏览 35
提问于2021-08-02
得票数 0
1
回答
用矩阵对单个值进行分类
python
、
matrix
、
machine-learning
、
scikit-learn
、
classification
我有一系列矩阵30x30,其中包含从0到75 (输入矩阵)
的
元素,
每个
矩阵都有一个30x30矩阵,只包含1s和0s (输出矩阵)。我试图在输入矩阵上训练一个分类器来预测输出矩阵,但是我不知道如何最好地表示分类器
的
输入矩阵(理想
的
sk-学习)。我不能将矩阵抽象成另一种形式,因为输入矩阵
中
的
每个
元素必须映射到输出矩阵相同位置
的
元素。
浏览 0
提问于2019-03-29
得票数 0
回答已采纳
1
回答
如何结合重量训练同一模型
的
多个副本
python
、
keras
、
keras-layer
函数A使用神经网络实现,其输出输入到函数B (不是神经网络,而是使用模型函数API在
Keras
中
实现),然后在函数B
的
输出时计算损失函数。因此,所有的L网络都会输出m_L实数。函数B将这些m_L实数作为输入并计算输出。这就是我粗略
的
计划, model_inputs =
keras
.layers.Input(s
浏览 0
提问于2019-07-12
得票数 1
回答已采纳
2
回答
当RNN和嵌入链接在一起时,了解
Keras
RNN
中
的
参数数量和
Keras
嵌入
中
的
输出形状尺寸
keras
、
recurrent-neural-network
、
word-embedding
我有这段来自youtube视频
的
Keras
代码: from
keras
.models import Sequentialmodel.add(Embedding(10000, 32))model.summary() 摘要
的
输出如下===============Trainable
浏览 33
提问于2019-06-13
得票数 1
回答已采纳
1
回答
TimeDistributed
层
与ConvLSTM-2D
keras
、
deep-learning
、
conv-neural-network
、
lstm
谁能为我解释一下
时间
分布
层
(来自)和ConvLSTM-2D ()之间
的
区别,目的,用法等?
浏览 5
提问于2018-12-02
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Keras进行深度学习:(一)Keras 入门
RNN循环神经网络、LSTM长短期记忆网络实现时间序列长期利率预测
一篇文章读懂什么是卷积神经网络
seq2seq模型实例:用Keras实现机器翻译
手把手教你用keras-CNN网络识别cifar10
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券