腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
PyTorch
LSTM
数据
维度
、
我使用过去7天的
数据
来预测今天的价值(价格)。假设我有1000行
数据
。因此,在
LSTM
Pytorch
中使用的
数据
的形状应该是什么? 是(1000,7,6)吗?
浏览 14
提问于2020-05-18
得票数 0
2
回答
理解
PyTorch
LSTM
的输入形状
、
、
、
这似乎是
PyTorch
中关于
LSTM
最常见的问题之一,但我仍然无法弄清楚
PyTorch
LSTM
的输入形状应该是什么。根据
PyTorch
的文档,它的输入
维度
是(seq_len, batch, input_size),我理解如下。input_size -每个输入令牌或时间步骤的
维度
。
lstm
= nn.
LST
浏览 6
提问于2020-05-06
得票数 16
回答已采纳
1
回答
如何表示
PyTorch
LSTM
三维张量器?
、
、
、
根据,我看到
Pytorch
’s
LSTM
expects all of its inputs to be 3D tensors.正在尝试做一个简单的序列到序列的
LSTM
,并且我有: x = self.
ls
浏览 2
提问于2020-02-11
得票数 2
回答已采纳
2
回答
Pytorch
-使用
LSTM
网络时尺寸不正确
、
、
我开始使用
pytorch
,并使用一些转换来构建以下模型,使用其中一个教程作为参考: torch.nn.Linear(D_in, H)( torch.nn.Linear(H, D_out) 这就给了我这个错误:编辑 在遵循@esBee的建议后,我发现以下内容运行正确。这是因为
LSTM</em
浏览 58
提问于2018-05-28
得票数 3
1
回答
在
LSTM
中增加层数增加了火炬的输入维数?
、
这是我的
LSTM
模型,我在训练时发现了一个特殊的问题。,drop_prob=0.0): out = self.fc(out) #Final Output我的培训
数据
有以下几个
维度
:第一个
维度
是输入,第二个
维度
是标签。为什么当我增加num_layers时输入
维度
会发生变化?
浏览 1
提问于2021-10-10
得票数 0
回答已采纳
1
回答
如何实现每个内存块具有多个单元的
LSTM
层?
、
我打算每层用多个存储单元块(或多个
LSTM
单元,
LSTM
单元是内存块及其门的集合)在
Pytorch
中实现
LSTM
,但基类torch.nn.
LSTM
似乎只能实现多层
LSTM
,每个层只有一个
LSTM
单元:
lstm
= torch.nn.
LSTM
(input_size, hidden_size, num_layers) hidden_size因此,
浏览 2
提问于2017-10-20
得票数 1
1
回答
PyTorch
LSTM
中的batch_first
、
、
我尝试了别人向我推荐的代码,当batch_first = False时,它对我的训练
数据
起作用,它为官方
LSTM
和手动
LSTM
产生相同的输出。但是,当我更改batch_first =True时,它不再产生相同的值,而我需要将batch_first更改为True,因为我的
数据
集形状是张量(批次,序列,输入大小)。
pytorch
_
lstm
.bias_ih_l0 = torch.nn.Parameter(torch.zeros(
pytorch
_
lstm
.bi
浏览 83
提问于2021-09-23
得票数 0
回答已采纳
1
回答
函数nn.
LSTM
在批/ seq_len中的行为如何?
、
、
、
目前,我正在学习如何将与
pytorch
一起使用,并不得不询问该功能是如何工作的。所以,我的主要问题是: 如果我将这个
数据
大小输入
浏览 7
提问于2019-09-27
得票数 0
回答已采纳
1
回答
如何在
pytorch
LSTM
中自定义多个隐藏层单元的数量?
、
、
在
pytorch
LSTM
、RNN或GRU模型中,有一个名为"“的参数,它控制
LSTM
中隐藏层的数量。我想知道,既然
LSTM
中有多个层,为什么参数"hidden_size“只是一个数字,而不是包含多个层中隐藏状态的数量的列表,如10、20、30。我在处理一个回归项目时遇到过,在这个项目中,我将(seq_len,batch,feature)的序列
数据
提供给
LSTM
,我想要获得每个时间步的标量输出。这是理解
pytorch
LSTM
框架的
浏览 6
提问于2019-01-07
得票数 1
2
回答
LSTM
的预期隐藏状态尺寸不考虑批处理大小
、
、
、
self.hidden_size = hidden_size self.
lstm
= nn.
LSTM
(input_size=embedding_size,num_layers=1, hidden_size=hidden_size, batch_first=True)my_input, hidden): output, hidden = s
浏览 2
提问于2019-02-07
得票数 4
回答已采纳
1
回答
如何将输出转换为1/0
、
、
、
、
下面是
LSTM
模型和相关代码: super(LSTMTaggerself.embedding = self.
lstm
1= nn.
LSTM
(input_size = 512, hidden_size = 64, dropout =
浏览 4
提问于2021-01-30
得票数 0
回答已采纳
3
回答
将
LSTM
Pytorch
模型转换为ONNX时出现问题
、
、
、
、
我正在尝试将我的
LSTM
异常检测
Pytorch
模型导出到ONNX,但遇到错误。请看我下面的代码。 注意:我的
数据
形状为2685,5,6。_Linear', 'l_fc2_Linear', 'l_
lstm
_
LSTM
', 'l_fc1_Linear', 'l_fc2_Linear', 'l_
lstm
_
LSTM
', 'l_fc1_Linear_Linear&
浏览 3
提问于2019-08-01
得票数 4
1
回答
如何在
lstm
中设置输入层的长度
、
我正在构建一个
LSTM
模型,使用Keras对一些评论
数据
进行分类。输出仅为1或0。 在将文本
数据
输入到
lstm
层之前,我添加了一个单词嵌入层。我的部分代码如下所示。但是,我总是对
LSTM
层的长度感到困惑。长度应该与我的文档长度(maxlen)相同吗?输入每个文档中的所有单词,然后输出?. 有相当多的在线资源来解释
LSTM
。Sequential() model.add(Embedding(input_dim=max_features, output_dim= 2, input_length
浏览 19
提问于2019-02-24
得票数 0
回答已采纳
1
回答
LSTM
自动编码器的这些实现之间的区别?
、
、
、
例1 (TensorFlow):model = Sequential()model.add(TimeDistributed(Dense(1)))该实现在应用
LSTM
层之前对嵌入进行训练.它似乎
浏览 4
提问于2020-12-07
得票数 4
回答已采纳
1
回答
PyTorch
LSTM
辍学与Keras辍学
、
、
、
我正在尝试将我的顺序Keras网络移植到
PyTorch
。但我在
LSTM
单位遇到麻烦了 stateful = False, dropout = 0.5), stateful = False, dropout = 0.5), 我应该如何用
PyTorch
来表述这个问题呢尤其是辍学在
PyTorch
中
浏览 2
提问于2020-06-09
得票数 1
1
回答
RNN和CNN在Tensorflow活动识别中的应用
、
、
、
全部在Tensorflow中 现在我想用
LSTM
层替换完全连接的层。但我不知道如何实现它。如果我有来自最后一个卷积层的平坦输出,如何将其提供给
LSTM
层?如何应用dropout?编辑:我想要做的是将时间序列
数据
划分为切片或时间窗口,然后应用卷积层,然后将其展平并输入到
LSTM
层。但我不知道如何实现这一点。尤其是当我已经在平面化的输出中时。
浏览 3
提问于2017-06-18
得票数 0
1
回答
用torchnlp进行文本分类
、
、
、
、
我正在尝试用
pytorch
()构建一个神经网络。我的目的是建立这样一个网络: 我在输入句子的维数上遇到了一个主要问题(每个单词都是向量),但最重要的是注意层:我不知道如何声明它,因为我需要编码器输出的确切维数由于torch.nn.utils.rnn.pad_pac
浏览 6
提问于2019-12-06
得票数 2
1
回答
如何在
PyTorch
中正确实现Seq2Seq
LSTM
的填充?
、
、
、
、
在这个中,他们没有使用填充,尽管输入和输出的长度是可变的。它似乎工作得很好,但如何工作呢?如果输入的长度是可变的,我们不应该实现填充吗?怎样做才是正确的呢?
浏览 0
提问于2020-02-21
得票数 0
2
回答
在
PyTorch
中是否存在干净和可扩展的
LSTM
实现?
、
、
、
、
我想自己创建一个
LSTM
类,但是我不想从头开始重写经典的
LSTM
函数。深入研究
PyTorch
的代码,我只发现至少涉及3-4个具有继承的类的脏实现: 作为一个明确的例子,我正在搜索的是一个像一样干净的实现,但是在
PyTorch
中
浏览 2
提问于2018-05-04
得票数 11
回答已采纳
1
回答
应该使用哪个BiLSTM层的输出进行分类
、
、
、
我试图为文本分类问题实现一个BiLSTM层,并为此使用
PyTorch
。self.bilstm = nn.
LSTM
(embedding_dim,
lstm
_hidden_dim//2, batch_first=True, bidirectional=True)对于文本分类,应该使用哪一种?
浏览 0
提问于2021-04-29
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用PyTorch手写代码从头构建完整的LSTM
在Python中使用LSTM和PyTorch进行时间序列预测
教你几招搞定 LSTMS 的独门绝技
【原创】-数据仓库维度建模
多维度数据可视化报表
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券