腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
pytorch
LSTM
上
循环
、
、
、
、
我正在训练一个用于
pytorch
机器翻译的seq2seq模型。我希望收集每个时间步的单元状态,同时仍然具有多层和双向的灵活性,例如,您可以
在
pytorch
的
LSTM
模块中找到这些信息。为此,我使用了以下编码器和转发方法,其中我
循环
遍历
LSTM
模块。问题是,该模型训练得不是很好。
在
循环
结束后,您可以看到使用
LSTM
模块的正常方式,以及使用该模块的模型列车。那么,
循环
不是这样做的有效方法吗?self.dropout =
浏览 16
提问于2019-07-04
得票数 1
回答已采纳
1
回答
如何处理文本摘要中类似意义的句子
、
假设我们有一个类似于Today is a very bad day. Very bad day is today. I wont come to play.的文本考虑到我的课文可能有很多相似意思的句子,我该怎么做呢? 我对此非常陌生,任何一种建议或帮助都会很好。
浏览 0
提问于2021-01-12
得票数 1
1
回答
有没有用于nn.LSTMCell的torch 0.4.0 nn.LayerNorm示例?
、
在
pytorch
0.4.0版本中,有一个模块。提前感谢
浏览 1
提问于2018-05-03
得票数 7
1
回答
PyTorch
LSTM
辍学与Keras辍学
、
、
、
我正在尝试将我的顺序Keras网络移植到
PyTorch
。但我
在
LSTM
单位遇到麻烦了 stateful = False, dropout = 0.5), stateful = False, dropout = 0.5), 我应该如何用
PyTorch
来表述这个问题呢尤其是辍学
在</em
浏览 2
提问于2020-06-09
得票数 1
1
回答
美国有线电视新闻网->
LSTM
级联模型到
PyTorch
闪电
、
、
、
、
我试图隐藏
PyTorch
代码的CNN ->
LSTM
级联模型到
PyTorch
闪电。
在
nn.Module码中有两个
PyTorch
类,一个用于CNN (编码器),一个用于
LSTM
(译码器),最后一个隐藏层作为
PyTorch
的输入。因此,
在
转换到
PyTorch
闪电之后,有两个pl.LightningModule类。我想知道如何在这两个类中填充所需的方法。以下是
PyTorch
中丢失和优化器的定义;优化器使用来自编码器
浏览 0
提问于2021-08-03
得票数 0
1
回答
是否可以使用
LSTM
预测作为下一个时间步长的输入?
、
、
、
我正在使用
LSTM
(
在
PyTorch
中)进行多变量时间序列预测。让我们想象一下这样的情况:我有两个时间序列,A和B,我想用之前的A和B的值(
在
t之前)来预测B的t值。但是,如果(
在
测试期间,
在
训练之后)我想使用B的预测值作为下一个时间步的输入而不是实际值,该怎么办?例如:我预测B的第一个值,走一步,把预测值代替真实的值,然后再次进行预测。
在
某些步骤中,只有预测值会出现在时间序列B中。 有没有可能做到这一点?
浏览 1
提问于2020-04-17
得票数 0
2
回答
在
PyTorch
中是否存在干净和可扩展的
LSTM
实现?
、
、
、
、
我想自己创建一个
LSTM
类,但是我不想从头开始重写经典的
LSTM
函数。深入研究
PyTorch
的代码,我只发现至少涉及3-4个具有继承的类的脏实现: 作为一个明确的例子,我正在搜索的是一个像一样干净的实现,但是
在
PyTorch
中
浏览 2
提问于2018-05-04
得票数 11
回答已采纳
1
回答
应该使用哪个BiLSTM层的输出进行分类
、
、
、
我试图为文本分类问题实现一个BiLSTM层,并为此使用
PyTorch
。self.bilstm = nn.
LSTM
(embedding_dim,
lstm
_hidden_dim//2, batch_first=True, bidirectional=True)现在,
在
一些例子中(我
在
互联网上看到),人们正在通过ht通过Linear层并生成输出。有些人也
在
使用<e
浏览 0
提问于2021-04-29
得票数 0
1
回答
如何在
pytorch
LSTM
中自定义多个隐藏层单元的数量?
、
、
在
pytorch
LSTM
、RNN或GRU模型中,有一个名为"“的参数,它控制
LSTM
中隐藏层的数量。我想知道,既然
LSTM
中有多个层,为什么参数"hidden_size“只是一个数字,而不是包含多个层中隐藏状态的数量的列表,如10、20、30。我
在
处理一个回归项目时遇到过,在这个项目中,我将(seq_len,batch,feature)的序列数据提供给
LSTM
,我想要获得每个时间步的标量输出。这是理解
pytorch
LST
浏览 6
提问于2019-01-07
得票数 1
1
回答
我想知道如何在
Pytorch
中处理
LSTM
、
我们正在尝试使用
LSTM
重建模型。 从上面的图片中,我现在将它放在下面的形状中。(batch、
lstm
_num、dv_batch、dvector)我想知道是否有其他方法可以使用
lstm
_num作为
循环
或张量本身来处理4维数据。
在
原始版本中,我们得到一个 (batch,dv_batch,dvector)在三维数据中。
浏览 3
提问于2020-05-25
得票数 0
3
回答
用顺序模块
在
PyTorch
中实现简单的线性扫描隧道调制
、
、
、
、
在
PyTorch
中,我们可以通过多种方式定义体系结构。在这里,我想使用Sequential模块创建一个简单的
LSTM
网络。
在
Lua的火炬里,我通常会说:model:add(nn.SplitTable(1,2))model:add(nn.Linear(hiddenSize, classes_
浏览 4
提问于2017-05-23
得票数 6
2
回答
Pytorch
ValueError:预期目标大小(2,13),
在
调用CrossEntropyLoss时获取torch.Size([2])
、
、
、
我正在尝试训练一个
Pytorch
LSTM
网络,但是当我试图计算CrossEntropyLoss时,我得到了ValueError: Expected target size (2, 13), gotlayers print(f'Shape after
LSTM
, self.hidden_dim), torch.zeros(self.n_layers, batc
浏览 399
提问于2020-11-30
得票数 1
回答已采纳
2
回答
如何在
pyTorch
中实现
LSTM
神经网络的分袋方法?
、
、
和标题一样,我的问题是如何使用
PyTorch
库将打包方法应用于
LSTM
?我已经
在
python
上
使用TensorFlow构建了一个。但是现在要隐含到使用C和C++的系统中,要求是我需要使用
PyTorch
? 有什么建议不需要使用
PyTorch
,直接将基于tensorflow构建的模型应用到系统中的真实预测中? 请帮帮我!
浏览 17
提问于2020-01-02
得票数 0
1
回答
Keras中卷积递归网络的建模
、
、
、
但是,
在
将Conv2D层的输出连接到
LSTM
层时,我被卡住了。我试图实现这是Keras,但我无法做到这一点,因为
在
Keras中,我们不能在keras.models.Sequential模型中更改batch_size维度。
浏览 0
提问于2018-01-20
得票数 6
回答已采纳
1
回答
将火炬
LSTM
的状态参数转换为Keras
LSTM
、
、
我试图将一个现有的经过训练的
PyTorch
模型移植到Keras中。
LSTM
网络的Keras实现似乎有三种状态矩阵,而
Pytorch
实现有四种状态矩阵。例如,对于具有hidden_layers=64、input_size=512和输出size=128状态参数的双向
LSTM
,如下所示[<tf.Variable 'bidirectional_1/forward_
lstm
_1/k
浏览 2
提问于2018-01-20
得票数 11
回答已采纳
1
回答
什么是等效于火炬
lstm
的num_layers?
、
、
我是
PyTorch
的初学者。从
lstm
中,我了解到可以通过以下方法创建具有3层的堆叠式
lstm
:然后
在
forward函数中,我可以这样做但是,如果我创建了3个
lstm
层,如果我想自己实现相同的层叠层,那么这相当于什么呢?layer1 = torch.nn.
LSTM
(128, 512, num_layers=1) layer2 = torch.nn.
LSTM
(
浏览 0
提问于2021-09-16
得票数 0
回答已采纳
2
回答
理解
PyTorch
LSTM
的输入形状
、
、
、
这似乎是
PyTorch
中关于
LSTM
最常见的问题之一,但我仍然无法弄清楚
PyTorch
LSTM
的输入形状应该是什么。根据
PyTorch
的文档,它的输入维度是(seq_len, batch, input_size),我理
浏览 6
提问于2020-05-06
得票数 16
回答已采纳
2
回答
我遇到了一个问题:"RuntimeError:输入和隐藏张量不在同一设备
上
,
在
cuda:0处找到输入张量,
在
cpu处找到隐藏张量。“
、
、
class
LSTM
_net(nn.Module): super(
LSTM
_net, self__() self.Embedding = nn.Embedding(vocab, Embedding) self
浏览 0
提问于2020-01-15
得票数 0
1
回答
LSTM
网络中的爆炸梯度
、
、
、
我已经
在
vb.net中创建了自己的
lstm
神经网络。根据我所读到的内容,
lstm
网络不会受到梯度爆炸/消失的影响。然而,过了一段时间,所有的梯度都会增加到最大。更改速率只会影响发生这种情况所需的时间。
在
lstm
网络中,有没有什么东西会导致梯度爆炸? 我使用带有动量的RMSProp来更新序列大小从32到64的权重。还包括训练数据
在
0,1范围内的窥视孔连接器。我根据论文
LSTM
:太空搜索奥德赛改编的
浏览 1
提问于2017-12-05
得票数 0
1
回答
RNN中填充和掩蔽序列的实现
、
、
该网络由一个具有一个
LSTM
层的RNN组成,并在其之上形成一个输出分类的MLP。
在
PyTorch
中实现填充/掩蔽的正确方法是什么?
浏览 0
提问于2023-05-30
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券