腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
PyTorch
LSTM
中
的
batch_first
、
、
我是这个领域
的
新手,所以我仍然不了解
PyTorch
LSTM
中
的
batch_first
。我尝试了别人向我推荐
的
代码,当
batch_first
= False时,它对我
的
训练数据起作用,它为官方
LSTM
和手动
LSTM
产生相同
的
输出。但是,当我更改
batch_first
=True时,它不再产生相同
的
值,而我需要将
batch_first</e
浏览 83
提问于2021-09-23
得票数 0
回答已采纳
1
回答
Pytorch
: TypeError“torch.LongTensor”对象是不可逆
的
我正在尝试用
pytorch
完成一个NLP任务,我使用了以下代码来打包我
的
一批句子。not reversible packed_target = nn.utils.rnn.pack_padded_sequence(target_batch, target_batch_length,
batch_first
enc
浏览 8
提问于2018-02-26
得票数 1
1
回答
我想知道如何在
Pytorch
中
处理
LSTM
、
我们正在尝试使用
LSTM
重建模型。 从上面的图片中,我现在将它放在下面的形状
中
。(batch、
lstm
_num、dv_batch、dvector)我想知道是否有其他方法可以使用
lstm
_num作为循环或张量本身来处理4维数据。在原始版本
中
,我们得到一个 (batch,dv_batch,dvector)在三维数
浏览 3
提问于2020-05-25
得票数 0
1
回答
PyTorch
LSTM
辍学与Keras辍学
、
、
、
我正在尝试将我
的
顺序Keras网络移植到
PyTorch
。但我在
LSTM
单位遇到麻烦了 stateful = False, dropout = 0.5), stateful = False, dropout = 0.5), 我应该如何用
PyTorch
来表述这个问题呢尤其是辍学在
PyTo
浏览 2
提问于2020-06-09
得票数 1
1
回答
如何使用return_sequences对堆叠式
LSTM
模型进行
PyTorch
操作?
、
、
、
我有一个Tensorflow / Keras模型,它具有:
LSTM
(
lstm
3self.model.add(Dropout(0.2)) self.model.add(Dense(
浏览 2
提问于2020-02-26
得票数 3
回答已采纳
1
回答
使用cnn火把可变长度
的
文本
、
、
、
、
我是个生手,我想知道CNN
中
可变长度句子序列
的
最佳实践是什么。 我想使用CNN在快速文本生成
的
词条上进行特征选择,然后将输出输入到
LSTM
。
浏览 1
提问于2019-07-28
得票数 2
回答已采纳
1
回答
如何在
Pytorch
中
实现具有多个单元
的
LSTM
层?
、
、
我打算实现一个具有2层和每层256个单元
的
LSTM
。为此,我正在尝试理解
PyTorch
LSTM
框架。torch.nn.
LSTM
中
我可以编辑
的
变量有input_size、hidden_size、num_layers、bias、
batch_first
、dropout和bidirectional。但是,如何在一个层
中
拥有多个单元呢?
浏览 7
提问于2017-10-15
得票数 1
1
回答
可以查看火炬预训练网络
的
代码吗
、
、
如果你在读这本书
的
时候还是个菜鸟的话--是的,我是也许它不在谷歌上,因为这是不可能
的
?我很乐意回答您
的
任何其他问题或如果有任何不清楚。 谢谢。
浏览 2
提问于2018-04-28
得票数 1
3
回答
用顺序模块在
PyTorch
中
实现简单
的
线性扫描隧道调制
、
、
、
、
在
PyTorch
中
,我们可以通过多种方式定义体系结构。在这里,我想使用Sequential模块创建一个简单
的
LSTM
网络。在Lua
的
火炬里,我通常会说:model:add(nn.SplitTable(1,2)) nn.
LST
浏览 4
提问于2017-05-23
得票数 6
1
回答
如何在python
中
打开预先训练好
的
模型
、
、
、
您好,我正在尝试从.sav文件中加载一些预先训练好
的
模型,但到目前为止什么都不起作用。这些模型最初是在
pytorch
中
创建
的
,当我在vs-code
中
打开原始文件时,可以看到所有合适
的
信息都被正确地存储了。
浏览 76
提问于2019-03-19
得票数 0
回答已采纳
1
回答
如何处理文本摘要
中
类似意义
的
句子
、
I wont come to play.
的
文本我对此非常陌生,任何一种建议或帮助都会很好。
浏览 0
提问于2021-01-12
得票数 1
1
回答
图像说明示例解码器
LSTM
Pytorch
的
输入大小
、
、
、
我是
Pytorch
的
新手,在图像字幕中有一个疑问。在DcoderRNN类
中
,
lstm
被定义为,在forward函数
中
,embeddings = torch.cat((features.unsqueeze(1), embeddings)
浏览 4
提问于2018-03-03
得票数 1
回答已采纳
1
回答
RuntimeError:输入必须有2个维度,got为3
、
、
我正在尝试将一系列
的
二元模型运行到
LSTM
中
。这涉及到: 2.使用pad_sequence填充序列 3.在嵌入层
中
输入填充
的
序列 4.打包嵌入层
的
输出 5.将包插入
LSTM
。(time,
batch_first
= True) static = rnn_utils.pad_sequence(static,
batch_first
= True)(
lstm
_out,
batch_first</e
浏览 276
提问于2019-06-03
得票数 0
1
回答
如何在
Pytorch
LSTM
/GRU/RNN中指定不同
的
层大小
、
、
、
因此,我知道如何在
Pytorch
中使用
LSTM
。但是,您只能为
LSTM
中
的
所有层指定一个hidden_size,这让我很不爽。如下所示:
lstm
= nn.
LSTM
(input_size=26, hidden_size=128, num_layers=3, dropout=dropout_chance,
batch_first
如果我在文档
中
遗漏了什么,或者你知道一个解决办法,请让我知道,谢谢!
浏览 26
提问于2020-09-22
得票数 0
1
回答
应该使用哪个BiLSTM层
的
输出进行分类
、
、
、
我试图为文本分类问题实现一个BiLSTM层,并为此使用
PyTorch
。self.bilstm = nn.
LSTM
(embedding_dim,
lstm
_hidden_dim//2,
batch_first
=True, bidirectional=True)现在,在一些例子
中
(我在互联网上看到),人们正在通过ht通过Linear层并生成输出。有些人也在使用
lstm</e
浏览 0
提问于2021-04-29
得票数 0
2
回答
理解
PyTorch
LSTM
的
输入形状
、
、
、
这似乎是
PyTorch
中
关于
LSTM
最常见
的
问题之一,但我仍然无法弄清楚
PyTorch
LSTM
的
输入形状应该是什么。 即使在跟踪了几个帖子(、、)并尝试了解决方案之后,它似乎也不起作用。每个序列
的
MAX_LEN为384,序列
中
的
每个令牌(或word)
的
维数为768。因此,我
的
批处理张量可能具有以下形状之一:[12, 384, 768]或[384, 12, 768]。批处理将是我对
浏览 6
提问于2020-05-06
得票数 16
回答已采纳
2
回答
Pytorch
ValueError:预期目标大小(2,13),在调用CrossEntropyLoss时获取torch.Size([2])
、
、
、
我正在尝试训练一个
Pytorch
LSTM
网络,但是当我试图计算CrossEntropyLoss时,我得到了ValueError: Expected target size (2, 13), got下面是我
的
网络定义: class
LSTM
(nn.Module): def __init__(self, vocab_size, embedding_dim, hidden_dim, n_layers= nn.
LSTM
(self.embedding_dim, self.hidden_dim, self
浏览 399
提问于2020-11-30
得票数 1
回答已采纳
1
回答
nn.
LSTM
()收到了无效
的
参数组合
、
、
在我
的
代码
中
,我使用了来自
pytorch
的
lstm
来预测时间序列。, self.hidden_size,self.num_layers , self.dropout,
batch_first
=True) x = self.fc(x)但是当我使用这个类时,我在x,hidden=self.
lstm
(x,hidden)行<
浏览 0
提问于2021-01-12
得票数 0
回答已采纳
1
回答
仅检索
pytorch
序列
中
lstm
层
的
最后一个隐藏状态
、
、
、
我有一个
pytorch
模型: torch.nn.
LSTM
(40, 256, 3,
batch_first
=True),torch.nn.Linear(256, 256),)_, (hidden, _) =
lstm
(data)尽
浏览 5
提问于2021-10-05
得票数 0
1
回答
为什么一个简单
的
embedding+linear层优于这个
LSTM
分类器?
、
、
、
、
我在学习NLP
的
过程
中
遇到了一个障碍。我正在编写一个,将推特划分为“灾难”或“非灾难”。我决定提高我
的
比赛,并投一个
LSTM
的
混合。我深入研究了填充/包装
的
序列,并认为我非常理解它们。经过仔细研究和思考,我得出
的
结论是,我应该从
LSTM
中
获取每个序列输出
的
最终非填充隐藏状态。= nn.
LSTM
(embed_dim, hidden_size,
batch_first
=Tru
浏览 5
提问于2021-07-26
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用PyTorch手写代码从头构建完整的LSTM
在Python中使用LSTM和PyTorch进行时间序列预测
理解LSTM中的各种阀
Pytorch中张量的高级选择操作
PyTorch中的多进程并行处理
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券