腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5273)
视频
沙龙
1
回答
如
何在
keras
中
获取
LSTM
自动
编码器
的
中间层
输出
python
、
tensorflow
、
keras
、
lstm
我有一个多层
LSTM
自动
编码器
,具有以下特性。model = Sequential()model.add(
LSTM
(150, dropout_U= 0.2, dropout_W = 0.2)) #L2model.add(
LSTM
L5
浏览 38
提问于2020-01-25
得票数 1
回答已采纳
1
回答
如何构建堆叠
的
序列到序列
的
自动
编码器
?
python
、
keras
在
keras
博客
中
:“在
Keras
中
构建
自动
编码器
”提供了以下代码来构建单序列到序列
自动
编码器
from
keras
.models import Model encoded =
LSTM
(la
浏览 2
提问于2018-01-17
得票数 0
1
回答
RNN
的
中间隐藏状态有什么好用?
machine-learning
、
neural-network
、
pytorch
、
recurrent-neural-network
因此,我以三种不同
的
能力使用了RNN/
LSTM
: 多对多: 使用最后一层
的
每个
输出
来预测下一层。可以是分类或回归。 多对一: 使用最终
的
隐藏状态执行回归或分类。一对多:
获取
一个潜在空间向量,可能是
LSTM
编码器
的
最终隐藏状态,并使用它生成一个序列(我已经以
自动
编码器
的
形式完成了这项工作)。 在这些情况下,我都没有使用中间隐藏状态来生成我
的
最终
输
浏览 46
提问于2021-02-28
得票数 0
回答已采纳
3
回答
LSTM
自动
编码器
python
、
machine-learning
、
tensorflow
、
deep-learning
、
keras
我试图构建一个
LSTM
自动
编码器
,目的是从序列
中
获得一个固定大小
的
向量,它尽可能好地表示序列。这个
自动
编码器
由两部分组成: 因此,最终,
编码器<
浏览 6
提问于2017-06-20
得票数 43
回答已采纳
2
回答
试图理解
Keras
中
的
编译码器顺序模型?
neural-network
、
keras
、
time-series
、
lstm
、
rnn
我
的
理解是,对于某些类型
的
seq2seq模型,您需要训练
编码器
和解码器,然后将
编码器
放在一边,只使用解码器进行预测。例如,优步
的
seq2seq时间序列预测模型:现在,我正试图在
Keras
中
实现这个to版本。这是普通
LSTM
的
Keras
代码:model = Sequential() model.add(
LSTM
(50, activation='relu&
浏览 0
提问于2019-07-27
得票数 4
1
回答
计算损失
的
Keras
中间层
输出
model
、
keras
、
theano
、
layer
、
loss
我使用
Keras
和theano,来训练一个
自动
编码器
模型。我想使用模型
的
中间层
表示在损失函数(同一模型
的
自定义损失函数)中进行一些特定
的
计算。我可以从模型
中
输出
中间层
。但随后它将使用2个
输出
而不是1个
输出
进行训练。我想只使用最终
的
输出
来训练模型。
浏览 10
提问于2017-05-23
得票数 3
1
回答
使用
中间层
作为输入和
输出
的
keras
模型
python
、
tensorflow
、
keras
我在
Keras
中有一个基本
的
LSTM
自动
编码器
(Tensoflow后端)。该模型
的
结构如下:l1 =
LSTM
(16, activation='relu', return_sequences=True)(l0)l3 = RepeatVecto
浏览 5
提问于2019-07-29
得票数 3
回答已采纳
1
回答
如何实现
LSTM
层之间
的
跳过连接结构
tensorflow
、
machine-learning
、
keras
、
deep-learning
、
lstm
最近我学习了ResNet
的
跳转连接,我发现这种网络结构在训练过程中会有很大
的
改进,它也适用于卷积网络,
如
U-net。但是,我不知道如何用
LSTM
自动
编码网络实现类似的结构。我正在使用
keras
的
方法来实现,但是我不断地得到错误。model.add(TimeDistributed(Dense(1)))plot_model(model=model, show_shapes=True) 就像resnet或unet
中
跳过连接图一样,我
浏览 14
提问于2020-03-20
得票数 3
回答已采纳
2
回答
我能训练RNN
的
初始隐藏状态来表示我
的
模型
的
初始条件吗?
tensorflow
、
keras
、
deep-learning
、
time-series
目的:考虑到我摄入
的
葡萄糖,估计这些物质
的
浓度随时间
的
推移。我想利用这个初始条件来训练RNN
的
初始隐藏状态。有我能做到
的
吗?我在
Keras
中使用python。谢
浏览 3
提问于2019-12-19
得票数 2
1
回答
Keras
如
何在
编码器
解码器
LSTM
中
初始化解码器第一状态?
python
、
tensorflow
、
lstm
、
keras-layer
、
encoder-decoder
我
的
理解是,在
编码器
解码器
LSTM
中
,解码器
的
第一状态与
编码器
的
最终状态相同(包括隐藏状态和单元状态)。但我没有看到下面的代码(取自许多
Keras
教程)
中
显式编写
的
代码。model.add(
LSTM
(units, input_shape=(n_input, n_features),dropout=rdo, activation =
keras
.layers.LeakyReLU(al
浏览 6
提问于2022-09-13
得票数 0
1
回答
时间序列上
的
LSTM
自动
编码器
python
、
keras
、
time-series
、
lstm
、
autoencoder
我目前正在尝试实现一个
LSTM
自动
编码器
,以允许将事务时间序列(Berka数据集)压缩到较小
的
编码向量
中
。我正在处理
的
数据看起来像 (它是单个帐户在一段时间内
的
累计余额)。我决定使用
Keras
,并尝试按照教程创建一个简单
的
自动
编码器
。这个模型不起作用。我
的
代码是:from
keras
import Input, Mod
浏览 5
提问于2018-02-06
得票数 6
回答已采纳
1
回答
使用
LSTM
自动
编码器
重新创建输入
python
、
tensorflow
、
keras
、
lstm
、
autoencoder
我正在尝试使用
LSTM
对输入数据进行编码,然后从编码
的
数据
中
解码/重新创建它。我有100个样本要运行,每个样本有40个时间步长和1260个特征。我对网络
的
粗略看法如下。将数据输入到
LSTM
层,将其编码到密集层,然后使用最终
的
LSTM
作为
输出
层。=['accuracy']) model.fit(input_train, input_test, epochs=100, batch_size=1, verbose=2) 我尝试了
浏览 17
提问于2020-09-07
得票数 0
回答已采纳
1
回答
convLSTM2d w/ functional
tensorflow
、
keras
我有一个用于图像压缩
的
自动
编码器
,其中编码
的
张量具有形状:(batch_size,12,64,48)。batch_size是一批输入
的
图像数,12是最后一个
编码器
层
的
通道数,它
的
宽度/高度为64x48。我想将它输入到ConvLSTM2D层,我希望ConvLSTM2D
的
输出
与ConvLSTM2D
的
输入具有相同
的
维度。 其目的是在视频序列上看到图像重建,而不是从数据集中看到无
浏览 0
提问于2019-03-31
得票数 2
回答已采纳
1
回答
无监督学习
中
的
特征选择或降维
nlp
、
clustering
、
feature-selection
、
unsupervised-learning
、
dimensionality-reduction
这是客户数据,所以它涉及很多句子,所以我在聚类之前使用通用
的
句子
编码器
。我想知道在无监督学习
中
是否有一种方法可以进行特征选择或降维。这可能非常有用,因为到目前为止,集群给出了一个混合
的
结果,我强烈地感觉这可能是由于数据
中
不想要
的
属性。任何帮助都是非常感谢
的
! 谢谢阿拉夫
浏览 0
提问于2019-06-19
得票数 2
1
回答
我们如
何在
堆叠
的
LSTM
模型中使用巴达诺注意力?
keras
、
lstm
、
attention-model
我
的
目标是在堆叠
的
LSTM
模型中使用注意力,但我不知道如
何在
编码层和解码层之间添加
Keras
的
AdditiveAttention机制。比方说,我们有一个输入层,一个
编码器
,一个解码器和一个密集
的
分类层,我们
的
目标是解码器在导出其
输出
时关注
编码器
的
所有隐藏状态(h = h1,...,hT)。有没有使用
Keras
的
高级编码方法?例如, input_l
浏览 8
提问于2021-06-17
得票数 1
2
回答
用于时间序列异常检测
的
LSTM
自动
编码器
,拟合模型
的
正确方法
keras
、
time-series
、
lstm
、
anomaly-detection
我试图找到正确
的
例子,使用
LSTM
自动
编码器
来定义时间序列数据
中
的
异常,并看到了很多例子,其中
LSTM
自动
编码器
模型中有标签,这是特征序列未来
的
时间步骤(对于通常使用
LSTM
的
时间序列预测),但我认为这种模型应该使用与特征序列相同
的
标签(以前
的
时间步骤)来训练。例如,搜索google
中
的
第一个链接- 1.这个
浏览 7
提问于2020-11-23
得票数 1
1
回答
基于
LSTM
自动
编码器
的
Keras
多时间序列预测
python
、
tensorflow
、
keras
、
lstm
、
autoencoder
我正在尝试构建一个
LSTM
自动
编码器
,
如
所示。我
的
代码:from
keras
.models import Model decoded =
LSTM
(input_dim, return_sequences=True)(decoded) model = Model(inputs, d
浏览 1
提问于2018-04-06
得票数 0
1
回答
初始状态
lstm
编码器
解码器
keras
python
、
keras
、
lstm
、
autoencoder
我正在尝试构建一个
LSTM
编码器
解码器,其中我
的
主要目标是解码器
的
初始状态与
编码器
相同。我从找到了下面的代码,并试图将其附加到我
的
案例
中
。我有一个形状为(1000,20,1)
的
数据。我想让
编码器
在
输出
中
把我
的
输入返回给我。我不知道如何纠正代码,它是工作
的
,即使我知道错误。Found: fro
浏览 0
提问于2018-05-21
得票数 1
2
回答
对于文本
自动
编码器
,我应该使用什么丢失功能?
keras
、
loss-function
、
autoencoder
我正在尝试为文本实现一个
自动
编码器
。但是我不知道我应该使用哪种损失函数?我试过使用mse,但我损失了1063442。我试图构建一个非常简单
的
自动
编码器
,只使用
Keras
中
的
LSTM
层。
浏览 0
提问于2018-03-28
得票数 0
1
回答
如何将
LSTM
-
自动
编码器
应用于变长时间序列数据?
neural-network
、
deep-learning
、
keras
、
lstm
、
autoencoder
我在本教程
中
阅读了
LSTM
自动
编码器
:,并粘贴了下面相应
的
keras
实现:from
keras
.modelsimport Model encoded =
LSTM
(latent_dim)(inputs) decoded=
浏览 4
提问于2017-09-29
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
DanceNet:帮你生成会跳舞的小姐姐
seq2seq模型实例:用Keras实现机器翻译
无需双语语料库的无监督式机器翻译
深度学习文本分类实战报告:CNN,RNN&HAN
基于CNN和LSTM的气象图降水预测示例
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券