腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
lstm
层
初始
状态
在
seq2seq
编码器
中
的
作用
、
、
、
我正在尝试遵循这个指南来实现一个
seq2seq
机器翻译模型:https://www.tensorflow.org/tutorials/text/nmt_with_attention 本教程
的
Encoder有一个initialize_hidden_state()函数,用于生成全0作为
编码器
的
初始
状态
。然而,对于为什么这是必要
的
,我有点困惑。据我所知,只有
在
调用encoder时(
在
trai
浏览 16
提问于2021-05-02
得票数 0
回答已采纳
1
回答
多元时间序列Keras
的
多步预测
、
、
、
我一直试图了解如何使用Keras建立用于多变量时间序列预测
的
LSTM
模型,但我仍然不确定如何以正确
的
形状表示数据。Temperature and humidity.我想做
的
事: 考虑到星期一一个城市新
的
一周
的
记录,我想预测那个城市剩下
的
6天
的
温度和湿度。多变量时间序列
的
多步预测。For 10 week
浏览 0
提问于2019-02-07
得票数 1
1
回答
如何将双向
LSTM
状态
传递到较早
的
LSTM
层
?
、
、
、
我正在尝试使用
编码器
LSTM
和解码器
LSTM
创建
seq2seq
模型,这两个模型都使用Bidirectional
层
。我可以将隐藏
状态
和存储单元向前传递给解码器
LSTM
,但我看不出如何将值从解码器传回
编码器
。
LSTM
层
的
initial_state。但是如果我用Bidirectional
层
包装这个Dec_
LSTM
1
层
,它就不会像我传递initial_s
浏览 1
提问于2021-02-23
得票数 1
1
回答
尺寸误差,
在
seq2seq
模型(op:'Add')
中
输入形状:[512,64],[5739,64]
、
、
在
seq2seq
模型
中
,
编码器
的
最后是输入
的
初始
状态
。encoder =
LSTM
True)(encoder)initial_state=[encoder_last, enc
浏览 0
提问于2018-12-17
得票数 0
回答已采纳
1
回答
Keras
Seq2Seq
游戏攻略
、
、
、
、
几周前,
Seq2Seq
模型
的
Keras简介已经发布,可以找到。我并不真正理解这个代码
的
一个部分:decoder_outputs, activation='softmax')这里定义了decoder_
lstm
。它是一个维度l
浏览 4
提问于2017-10-10
得票数 3
回答已采纳
2
回答
这个编解码器
LSTM
对时序序列
的
序列有意义吗?
、
、
任务预测\vec y = [x_{t=1}, x_{t=2}]问题 值得尝试这种架构吗?(我认为画这幅画比编码要花更多
的
时间.)与典型
的
seq2seq
不同
的
是,
在
译码器
中
,第二步
的
浏览 0
提问于2018-12-12
得票数 5
1
回答
在
基于注意力
的
seq_len
中
消除BiLSTM
、
、
、
、
我正在研究基于自我关注
的
BiLSTM
的
几个实现,我不明白为什么每个实现
中
的
输入和输出大小是不同
的
。但是相对于seq_len
的
维度在哪里呢?我需要一个与输入向量相等
的
输出向量(即(batch_size, seq_len, n_hidden))。batch_first=True) # out1 = (seq_len, batch, num_directions
浏览 4
提问于2021-02-16
得票数 0
2
回答
为什么
seq2seq
模型优于简单
的
LSTM
?
、
、
在
深度学习领域,众所周知,最强大
的
递归体系结构是序列到序列,或
seq2seq
,用于几乎任何任务(对时间序列
的
预测、机器翻译、文本生成)。 为什么?
LSTM
编解码结构
的
性能优于更规范
的
RNN
的
基本数学原因是什么?它是
在
产生密集
的
潜在表征吗?是关于相对较高
的
参数数吗?任何暗示都是感激
的
。
浏览 0
提问于2019-11-29
得票数 1
2
回答
什么非线性最适合去噪RNN自动
编码器
,应该去哪里?
、
、
我正在使用一个去噪RNN自动
编码器
与运动捕获数据相关
的
项目。这是我第一次使用自动
编码器
架构,我只是想知道在这些模型
中
应该放置哪些非线性,以及它们应该去哪里。这是我现在
的
模型: def __init__(self, input_size, hidden_size, num_layers):self.encoder(x) r
浏览 0
提问于2019-12-12
得票数 0
1
回答
在
训练期间手动给张量分配值
我
在
训练一个
seq2seq
模型。
LSTM
2.hidden_state =
LSTM
1.hidden_state 我怎么复制它?我尝试过使用assign_op =
L
浏览 1
提问于2016-10-04
得票数 0
回答已采纳
2
回答
两台
LSTM
自动
编码器
的
差异
、
、
我想知道这两种型号
的
区别。上面的一个有4
层
,查看模型摘要,您也可以定义单位数
的
降维。但是第二模型是什么,它有3
层
,你不能直接定义隐藏单位
的
数量?
LSTM
自动
编码器
是否用于降维和回归分析?有什么好
的
文章描述了我从和中找到
的
这两个例子。我没有定义变量,实际上我不是直接问编码问题。我希望这也是这个话题
的
好地方。,例如(1000,300,1),第一个是接受它,第二个不是,我得到错误
的
lstm</em
浏览 1
提问于2018-04-28
得票数 0
回答已采纳
2
回答
句子语言
的
神经网络翻译,具有简单
的
层次结构(如果可能的话)
、
、
、
、
上下文:许多带有神经网络
的
语言句子翻译系统(例如法语到英语)使用
seq2seq
结构:我注意到,在所有这些示例
中
,神经网络
的
结构并不是通过使用具有连续
层
的
浏览 0
提问于2020-02-12
得票数 4
1
回答
seq2seq
模型
中
双向
LSTM
的
状态
理解(tf角)
、
、
、
、
我正在创建一个语言模型:一个包含2个双向
LSTM
层
的
seq2seq
模型。我已经训练了这个模型,而且它
的
精度似乎很好,但是当我坚持想出推理模型
的
时候,我发现自己被每个
LSTM
层
返回
的
状态
弄糊涂了。我正在使用本教程作为指南,尽管这个链接
中
的
示例不是使用双向
层
:。 注意:我使用
的
是预先训练过
的
单词嵌入。我希望
编码器
将
浏览 9
提问于2022-08-22
得票数 0
回答已采纳
1
回答
如何使用每天有多个输入行但每天只有一行标签/地面实况(输出)数据
的
数据来训练机器/深度学习模型
、
、
、
、
我正在做一个睡眠数据科学实验,我需要一个为每个输入输出多列睡眠质量测量值(十进制数)
的
模型。 为了进行训练,我使用智能手机(用于输入数据)和智能手表(用于标签或输出数据)收集数据。智能手机
在
一夜之间收集多行传感器数据,如加速计和陀螺仪。智能手表生成单行睡眠质量指标值(如TWAK、NWAK、WASO等)就一个晚上。数据结构如下: ? 上面是我
的
数据
的
表示。左侧是电话功能数据(每天
的
记录数不确定,具体取决于此人当天
的
睡眠时间),右侧是睡眠质量测量数据,每天只有一个值。我需要用这些数据
浏览 24
提问于2020-11-21
得票数 0
2
回答
理解
Seq2Seq
模型
、
、
这是我对
LSTM
序列
的
理解。假设我们正在处理一个问答设置。第二组(蓝色)是一对多
的
LSTM
,与第一组
LSTM
具有不同
的
权重。输入只是回答句,而输出是同一个句子,移动一句
浏览 10
提问于2017-09-22
得票数 7
回答已采纳
3
回答
堆叠式
LSTM
的
优点?
、
、
、
我想知道
在
什么情况下堆叠
LSTM
是有利
的
?
浏览 0
提问于2017-08-29
得票数 19
1
回答
keras GRU
层
中
的
返回
状态
和返回序列有什么不同?
、
、
、
、
我似乎无法理解keras GRU
层
中
返回
状态
和返回序列之间
的
区别。 由于GRU单元没有单元
状态
(它等于输出),那么返回
状态
与keras GRU
层
中
的
返回序列有什么不同呢?更具体地说,我构建了一个具有一个编码
层
和一个解码
层
的
编码器
-解码器
LSTM
模型。编码
层
返回其
状态
(return_state = TRUE),并
浏览 34
提问于2019-02-26
得票数 8
1
回答
对于基于
LSTM
的
seq2seq
模型,
在
使用注意时是否仍然需要或建议反向输入?
、
、
、
最初
的
seq2seq
文件颠倒了输入顺序,并列举了这样做
的
多个原因。请参阅:为什么当源目标反转时,
LSTM
表现得更好?(
Seq2seq
) 但是
在
使用注意力
的
时候,这样做还有什么好处吗?我想,由于解码器
在
每一时间步骤都可以访问
编码器
隐藏
的
状态
,所以它可以了解要处理什么,并且输入可以按原来
的
顺序输入。
浏览 0
提问于2022-02-15
得票数 0
回答已采纳
2
回答
编解码模型
中
双向
LSTM
的
数量是否等于输入文本/字符
的
最大长度?
、
、
、
、
当我试图了解
seq2seq
编解码器如何在https://machinelearningmastery.com/configure-encoder-decoder-model-neural-machine-translation在我看来,
编码器
中
的
LSTM
数量必须与文本
中
的
单词数(如果使用单词嵌入)或文本
中
的
字符(如果使用char嵌入)相同。对于字符嵌入,每个嵌入对应于1个方向
的
L
浏览 0
提问于2020-05-20
得票数 0
0
回答
具有注意机制
的
Keras序列到序列
编码器
-解码器词性标注示例
、
、
、
、
由于我是深度学习
的
新手,我正在寻找一个
在
Keras中使用注意力机制并从我
的
单词序列中产生一系列
seq2seq
标签t_1,...,t_n
的
pos标签模型
的
简单实现。具体地说,我不知道如何收集
编码器
的
LSTM
隐藏
层
的
输出(因为它们是TimeDistributed),以及如何为每个时间戳
的
解码器
LSTM
层
提供时间"t-1“
的
浏览 0
提问于2016-07-01
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
seq2seq模型实例:用Keras实现机器翻译
Seq2Seq、SeqGAN、Transformer…你都掌握了吗?一文总结文本生成必备经典模型(一)
深度学习在机器翻译中的应用
深度学习基础知识
Seq2Seq 模型详解
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券