腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
单个
密集
层
上
使用
TimeDistributed
有
什么
不同
吗
?
、
、
、
在
单个
密集
层
周围添加
TimeDistributed
包装器
有
什么
不同
吗
?两者都具有相同数量的参数(2,208)和相同的输出形状(无,6,32)。这样做的目的是我
有
一个6个时间步长的数据序列,每个时间步
有
64个我想要通过
密集
层
的特征。# With
TimeDistributed
m.add(
浏览 13
提问于2019-03-13
得票数 2
回答已采纳
2
回答
检查目标时出错:期望time_distributed_5具
有
三维,但得到形状为(14724,1)的数组
、
、
、
、
试图建立单一的输出回归模型,但在最后一
层
似乎存在问题。(Dense(4))(auxiliary_inputs)ou
浏览 9
提问于2017-10-17
得票数 2
回答已采纳
2
回答
TimeDistributed
与TimeDistributedDense Keras
、
、
、
、
我已经通过了,但仍然无法理解
TimeDistributed
作为Keras模型中的一个
层
究竟做了
什么
?有人能用一个精确的例子来解释这两种类型的
层
包装器所做的事情
吗
?
浏览 4
提问于2017-02-22
得票数 14
回答已采纳
1
回答
如何不输出Keras中具有“`
TimeDistributed
`”
层
的序列?
、
、
我目前正在用Keras做LSTM的工作,我
有
一个关于
TimeDistributed
层
的问题。假设我
有
一个
TimeDistributed
层
,它接受类似于(batch_size,timesteps,num_features1)的输入。
有
可能
吗
?这将是将一个具有return_sequence = True的LSTM
层
堆叠到一个
密集
层
(
使用
TimeDistributed
<
浏览 1
提问于2017-03-03
得票数 2
回答已采纳
1
回答
需要澄清
在
多到多场景中
使用
LSTM的
TimeDistributed
(稠密())
、
、
、
、
从Keras论坛和
上
的其他帖子来看,我认为我必须实现
TimeDistributed
(Dense()),但我不知道如何实现。)异常中:检查模型目标时出错:期望
timedistributed
_4具有形状(1,( 300,300)但得到形状为(8263,300,1)的数组 现在,我已经成功地
在
time_step=1
上
运行了它,并且仅仅
使用
稠密(1)作为最后一
层
。但是,我不知道该如何塑造我的train_dv (训练中的输出),或者如何正确地
使用
T
浏览 2
提问于2016-11-14
得票数 1
1
回答
TimeDistributed
包装器用于LSTM或任何其他
层
的用途是
什么
?
、
、
、
、
我试图理解
TimeDistributed
层
在
keras/tensorflow中的
使用
。我读过一些帖子和文章,但还是没有读到。让我对
TImeDistributed
层
的工作
有
一些了解的线程是- 但我还是不知道为
什么
这
层
是实际
使用
的!
层
的实际用途是
什么
?
TimeDistributed
层
将时间相关数据应用于
不同
的
层
浏览 0
提问于2018-11-01
得票数 15
回答已采纳
1
回答
一种用于框架序列分析的卷积神经网络结构
、
我的问题是
什么
?嗯,我不确定我是否需要
使用
时间分布
层
。神经网络的输入形状如下:( 20,64,64,1),其意义是:20帧,64x64大小(1通道-灰度)。我应该
使用
TimeDistributed
层
吗
?
浏览 0
提问于2017-10-01
得票数 1
回答已采纳
1
回答
为
什么
Keras序列到序列教程没有提到
TimeDistributed
层
包装器?
、
、
解释了序列到序列RNN的实现,甚至没有提到的
使用
。然而,似乎暗示,
使用
TimeDistributed
层
对于将
密集
层
中的各个时间步骤分开是必不可少的(这在我看来是合乎逻辑的)。那么,为
什么
TimeDistributed
层
包装器
在
Keras教程中都没有提到呢?让事情变得简单?或者本教程是否
使用
不需要
TimeDistributed
的体系结构?还是基于不包括或不需要
TimeDist
浏览 1
提问于2018-03-07
得票数 0
回答已采纳
1
回答
LSTM +
TimeDistributed
的损耗计算(
密集
...)
层
我
有
一个
使用
TimeDistributed
的简单顺序模型(
密集
...)作为LSTM
层
之后的最后一
层
。我正在以20个时间步长的序列对时间序列数据进行训练。K.mean(K.abs(y_pred - y_true), axis=-1)该模型的一个片段是: framelen)
TimeDistributed
看一下代码,看起来损失可能只
在
一个时间步长上计算,但这可能是我对
浏览 1
提问于2017-08-19
得票数 3
1
回答
LSTM之后是Keras的稠密
层
、
、
我正在研究LSTM和LSTM AutoEncoders,
使用
Keras为多变量时间序列数据尝试
不同
类型的体系结构。由于
在
LSTM中
使用
relu实际
上
并不实际,因为存在爆炸梯度,所以我
在
LSTM之后添加了一个
密集
的
层
,因此它类似于:model.add(LSTM(number_of_features或者,它是否为所有时间步骤添加了一个完全连接的
密集
层
? 当我检查参数的数量时,要
浏览 0
提问于2020-11-10
得票数 3
回答已采纳
1
回答
Keras
TimeDistributed
层
实际
上
是做
什么
的?
、
、
、
给定一个时间序列,我
有
一个多步预测任务,在这个任务中,我想预测与给定时间序列中的时间步骤相同的次数。如果我
有
以下模式:lstm = LSTM(units=100, activation='relu')(input1outputs=outputs) metrics=["accura
浏览 11
提问于2022-03-22
得票数 1
回答已采纳
1
回答
连接Keras中的掩码输入
、
、
、
、
使用
Keras API,我尝试构建一个神经网络模型,如下所示。我
有
两个输入,每个输入都是分类时间序列,它们已经转换为一次hots。
在
一个批次中,时间序列通常具有
不同
的长度,因此我用零填充它们,使其达到相同的长度。我想首先对每个输入应用一个掩蔽
层
,以便忽略填充,然后对每个输入应用
TimeDistributed
密集
层
,最后
在
将结果传递到LSTM之前连接
密集
层
的输出。(这并不重要,
在
LS
浏览 0
提问于2021-07-07
得票数 0
2
回答
TimeDistributed
(稠密)与Keras中的稠密-相同的参数数
、
、
、
、
我正在构建一个
使用
递归
层
(GRUs)将字符串转换为另一个字符串的模型。我尝试过
使用
密集
层
和
TimeDistributed
(
密集
层
)作为最后一
层
,但我不理解两者
在
使用
return_sequences=True时的区别,特别是因为它们似乎具有相同数量的参数。的理解是,它在所有时间点
上
都应用相同的
层
,因此稠密
层
具有16*15+15=255参数(weig
浏览 4
提问于2017-06-18
得票数 36
回答已采纳
2
回答
如何在Keras中
使用
return_sequences选项和
TimeDistributed
层
?
、
、
、
我
有
一个对话语料库如下所示。我想要实现一个LSTM模型,它可以预测系统的动作。系统动作被描述为位向量。但是我无法理解return_sequences选项和
TimeDistributed
层
。要实现“多对多(2)",需要在LSTMs之后添加return_sequences==True和
TimeDistributed
?如果你能给我更多的描述,我很感激。
TimeDistributed
:此包装器允许将一个
层
应用于输入的每个时态切片。 更新2017/03/13 1
浏览 0
提问于2017-03-13
得票数 62
回答已采纳
1
回答
基于多层感知器的双向长时间存储网络( BiLSTM )
、
、
、
、
Bi 1
有
64个输出(向前32个,向后32个)。双LSTM2 2
有
40只(每只20只)。全连通
层
分别为40维、10维和1维.前向和后向LSTM的输出被连接起来,并前馈到下一
层
。共享MLP由三个完全连接的前馈
层
组成,前两
层
使用
tanh激活函数,最后一
层
采用sigmoid激活函数,以便输出0到1之间的分数。(Dense(40,activation='tanh'))) model.add(
TimeDistributed
(
浏览 4
提问于2020-04-03
得票数 0
回答已采纳
2
回答
我无法获得正确的输入形状
、
、
、
、
我试图
在
开始时添加一个Flatten()
层
,但它给了我一个object of type 'NoneType' has no len()错误,即使这在tf.keras上工作得很好。我也尝试了
不同
的输入形状,但它们都不起作用。
浏览 21
提问于2020-05-15
得票数 1
回答已采纳
3
回答
为
什么
不
使用
扁平,然后是
密集
层
,而不是
TimeDistributed
?
、
、
、
、
我正在努力更好地理解Keras
层
。我正在开发一个序列序列模型,
在
该模型中嵌入一个句子并将其传递给返回序列的LSTM。接下来,我想在句子中的每个时间步长(word)
上
应用一个
密集
的
层
,就像
TimeDistributed
为像这个例子一样的三维张量所做的工作。
在
我的理解中,稠密
层
只对二维张量起作用,而
TimeDistributed
只是在三维的每个时间步骤
上
应用相同的密度。那么,一个人不可以简单地平缓时间步骤,应用一个<em
浏览 2
提问于2018-12-07
得票数 6
回答已采纳
1
回答
我如何在Keras中实现这个本地连接的体系结构?
我想让一个模型符合这样的体系结构:基本
上
,我得到了来自
不同
年份的粒状数据,这些数据聚集在一起形成了一组年度现象,这些现象本身可能相互作用。如果我
有
足够的数据,我就能适应一堆完全连接的
层
。
浏览 0
提问于2018-06-07
得票数 0
回答已采纳
2
回答
Keras自定义
层
2D输入-> 2D输出
、
、
、
我
有
一个2D输入(如果其中一个考虑样本的数量),我想要应用一个角化
层
来接受这个输入并输出另一个2D矩阵。因此,例如,如果我
有
一个带有大小的输入(ExV),学习权重矩阵将是(SxE)和输出(SxV)。我能用密
层
做这个
吗
?第一
层
是
什么
也不做。它只是给Lambda
层
提供一个输入:from keras.layers.core import Reshape,
浏览 5
提问于2017-02-10
得票数 5
回答已采纳
1
回答
如何在LSTM中指定要输出哪些单元?
、
我
在
大多数LSTM代码示例中看到了这个代码概念(
使用
Keras库):model.add(Dense(Y))model.add(Dense(1)) 或者,如果我
有
10个输入时间步骤,并且需要10个输出时间步骤(我的意思是我需要所有单元的所有输出),下面的代码是正确的
吗
?model.add(LSTM(10)
浏览 0
提问于2019-03-01
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
keras实现LRCN行为识别网络
如何用深度学习将前端设计模型自动转换为代码?
1.2万亿参数:谷歌通用稀疏语言模型GLaM,小样本学习打败GPT-3
图像语义分割的工作原理和CNN架构变迁
实用性高的那种教程:使用Tensorflow和Keras进行手写识别
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券