腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(607)
视频
沙龙
1
回答
PyTorch
LSTM
中的batch_first
python
、
pytorch
、
lstm
我是这个领域的新手,所以我仍然不了解
PyTorch
LSTM
中的batch_first。
pytorch
_
lstm
.bias_ih_l0 = torch.nn.Parameter(torch.zeros(
pytorch
_
lstm
.bias_ih_l0.shape))
pytorch
_
lstm
.weight_hh_l0= torch.nn.Parameter(torch.ones(
pytorch
_
lstm
.weight_
浏览 83
提问于2021-09-23
得票数 0
回答已采纳
3
回答
将
LSTM
Pytorch
模型转换为ONNX时出现问题
python
、
deep-learning
、
pytorch
、
lstm
、
onnx
我正在尝试将我的
LSTM
异常检测
Pytorch
模型导出到ONNX,但遇到错误。请看我下面的代码。 注意:我的数据形状为2685,5,6。_Linear', 'l_fc2_Linear', 'l_
lstm
_
LSTM
', 'l_fc1_Linear', 'l_fc2_Linear', 'l_
lstm
_
LSTM
', 'l_fc1_Linear_Linear',
浏览 3
提问于2019-08-01
得票数 4
1
回答
PyTorch
LSTM
辍学与Keras辍学
python
、
keras
、
pytorch
、
lstm
我正在尝试将我的顺序Keras网络移植到
PyTorch
。但我在
LSTM
单位遇到麻烦了 stateful = False, dropout = 0.5), stateful = False, dropout = 0.5), 我应该如何用
PyTorch
来表述这个问题呢尤其是辍学在
PyTorch
中
浏览 2
提问于2020-06-09
得票数 1
2
回答
在
PyTorch
中是否存在干净和可扩展的
LSTM
实现?
coding-style
、
open-source
、
lstm
、
implementation
、
pytorch
我想自己创建一个
LSTM
类,但是我不想从头开始重写经典的
LSTM
函数。深入研究
PyTorch
的代码,我只发现至少涉及3-4个具有继承的类的脏实现: 作为一个明确的例子,我正在搜索的是一个像一样干净的实现,但是在
PyTorch
中
浏览 2
提问于2018-05-04
得票数 11
回答已采纳
1
回答
应该使用哪个BiLSTM层的输出进行分类
python
、
lstm
、
pytorch
、
text-classification
我试图为文本分类问题实现一个BiLSTM层,并为此使用
PyTorch
。self.bilstm = nn.
LSTM
(embedding_dim,
lstm
_hidden_dim//2, batch_first=True, bidirectional=True)对于文本分类,应该使用哪一种?
浏览 0
提问于2021-04-29
得票数 0
1
回答
是否可以创建自定义的Tensorflow GRU/
LSTM
单元?
tensorflow
我想修改tf.nn.rnn_cell.GRUCell并为第二个输入添加另一个门,这样除了z更新门和r重置门之外,还有第三个g自定义门,用于网络的第二个输入,类似于和。我为Torch7 GRU单元成功地完成了这一任务,并且成功地解决了特定的序列建模问题。我怀疑在Tensorflow中实现这一点并不简单,但也许我错了。有人能提供更多关于Tensorflow中自定义单元格的详细信息吗?
浏览 0
提问于2019-02-04
得票数 3
回答已采纳
1
回答
如何在
pytorch
LSTM
中自定义多个隐藏层单元的数量?
lstm
、
pytorch
、
recurrent-neural-network
在
pytorch
LSTM
、RNN或GRU模型中,有一个名为"“的参数,它控制
LSTM
中隐藏层的数量。我想知道,既然
LSTM
中有多个层,为什么参数"hidden_size“只是一个数字,而不是包含多个层中隐藏状态的数量的列表,如10、20、30。我在处理一个回归项目时遇到过,在这个项目中,我将(seq_len,batch,feature)的序列数据提供给
LSTM
,我想要获得每个时间步的标量输出。这是理解
pytorch
LSTM
框架的有用链接。如果有人
浏览 6
提问于2019-01-07
得票数 1
1
回答
有没有用于nn.LSTMCell的torch 0.4.0 nn.LayerNorm示例?
lstm
、
pytorch
在
pytorch
0.4.0版本中,有一个模块。提前感谢
浏览 1
提问于2018-05-03
得票数 7
1
回答
Keras
LSTM
到
Pytorch
pytorch
我使用以下代码将顺序
LSTM
应用于具有一个值的时间序列数据。它在Keras版本上工作得很好。我想知道怎样才能用
PyTorch
做同样的事情?tensorflow.keras.models import Sequential, Modeltime_steps = 24 metric = 'mean_absolut
浏览 16
提问于2020-07-15
得票数 0
1
回答
如何将
LSTM
与Keras堆栈?
python
、
keras
、
lstm
我的模型是: model.add(
LSTM
(128, input_shape=(10, VECTOR_SIZE), return_sequencesTimeDistributed(Dense(VECTOR_SIZE, activation='linear'))) File "/Users/shamoon/.local/share/virtualenvs/
pytorch
-
lstm
-audio-
浏览 4
提问于2020-02-15
得票数 0
回答已采纳
1
回答
我想知道如何在
Pytorch
中处理
LSTM
python
、
pytorch
我们正在尝试使用
LSTM
重建模型。 从上面的图片中,我现在将它放在下面的形状中。(batch、
lstm
_num、dv_batch、dvector)我想知道是否有其他方法可以使用
lstm
_num作为循环或张量本身来处理4维数据。
浏览 3
提问于2020-05-25
得票数 0
1
回答
将火炬
LSTM
的状态参数转换为Keras
LSTM
keras
、
lstm
、
pytorch
我试图将一个现有的经过训练的
PyTorch
模型移植到Keras中。
LSTM
网络的Keras实现似乎有三种状态矩阵,而
Pytorch
实现有四种状态矩阵。例如,对于具有hidden_layers=64、input_size=512和输出size=128状态参数的双向
LSTM
,如下所示[<tf.Variable 'bidirectional_1/forward_
lstm
_1/kernel:0
浏览 2
提问于2018-01-20
得票数 11
回答已采纳
1
回答
LSTM
自动编码器的这些实现之间的区别?
python
、
tensorflow
、
keras
、
pytorch
例1 (TensorFlow):model = Sequential()model.add(TimeDistributed(Dense(1)))该实现在应用
LSTM
层之前对嵌入进行训练.它似乎
浏览 4
提问于2020-12-07
得票数 4
回答已采纳
3
回答
用顺序模块在
PyTorch
中实现简单的线性扫描隧道调制
deep-learning
、
torch
、
lstm
、
recurrent-neural-network
、
pytorch
在
PyTorch
中,我们可以通过多种方式定义体系结构。在这里,我想使用Sequential模块创建一个简单的
LSTM
网络。在Lua的火炬里,我通常会说:model:add(nn.SplitTable(1,2))model:add(nn.Linear(hiddenSize, classes_n)) 但是,在
PyTorch
浏览 4
提问于2017-05-23
得票数 6
1
回答
pytoch RuntimeError:维度超出范围(应在[-1,0]的范围内,但实际为1
python
、
pytorch
、
artificial-intelligence
、
reinforcement-learning
我正在尝试用
LSTM
在演员和评论家中训练一个演员评论家模型。我使用的是
pytorch
版本0.4.1 有没有人能帮我检查一下这段代码有什么问题?__init__() self.layer_1 = nn.Linear(256, 400) se
浏览 14
提问于2020-07-24
得票数 0
回答已采纳
1
回答
手动将
LSTM
从Tensorflow导入到
PyTorch
python
、
tensorflow
、
lstm
、
pytorch
我正在尝试将一个预训练的模型从tensorflow导入到
PyTorch
。它接受单个输入并将其映射到单个输出。当我尝试导入
LSTM
权重时,出现了混乱 我使用以下函数从文件中读取权重及其变量: def load_tf_model_weights(): <tf.Variable 'rnn/multi_rnn_cell/cell_0
浏览 49
提问于2019-03-19
得票数 2
回答已采纳
2
回答
理解
PyTorch
LSTM
的输入形状
python
、
pytorch
、
lstm
、
tensor
这似乎是
PyTorch
中关于
LSTM
最常见的问题之一,但我仍然无法弄清楚
PyTorch
LSTM
的输入形状应该是什么。根据
PyTorch
的文档,它的输入维度是(seq_len, batch, input_size),我理解如下。
lstm
= nn.
LSTM
(input_size=?, hidden_size=?, batch_firs
浏览 6
提问于2020-05-06
得票数 16
回答已采纳
1
回答
Keras中卷积递归网络的建模
keras
、
lstm
、
recurrent-neural-network
、
pytorch
但是,在将Conv2D层的输出连接到
LSTM
层时,我被卡住了。
浏览 0
提问于2018-01-20
得票数 6
回答已采纳
1
回答
如何在python中从预先训练好的模型中获得权重,并在tensorflow中使用?
python
、
tensorflow
、
pytorch
、
lstm
如何在
PyTorch
中从预先训练好的模型中获取权重并在TensorFlow中使用?这是预先训练好的模型:
lstm
= torch.hub.load("BruceWen120/medal", "
lstm
")
浏览 3
提问于2021-11-28
得票数 0
1
回答
什么是等效于火炬
lstm
的num_layers?
python
、
pytorch
、
lstm
我是
PyTorch
的初学者。从
lstm
中,我了解到可以通过以下方法创建具有3层的堆叠式
lstm
:然后在forward函数中,我可以这样做但是,如果我创建了3个
lstm
层,如果我想自己实现相同的层叠层,那么这相当于什么呢?layer1 = torch.nn.
LSTM
(128, 512, num_layers=1) layer2 = torch.nn.
LSTM
(128, 512,
浏览 0
提问于2021-09-16
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用PyTorch手写代码从头构建完整的LSTM
在Python中使用LSTM和PyTorch进行时间序列预测
一步一步带你实现PyTorch手写字符识别
教你几招搞定 LSTMS 的独门绝技
如何入门PyTorch自然语言处理?
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券