腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
pytorch
创建
LSTM
模型
、
、
、
我对在
Pytorch
中
使用
LSTM
非常陌生,我正在尝试
创建
一个
模型
,它得到一个大小为42的张量和一个大小为62的序列(即62个大小为42的张量a)。这意味着我在一个序列中有62个张量。因为我从
Pytorch
文档中读到的东西,我只能预测相同的比率(1点预测1),而我想预测张量为42,序列为62,张量为1,序列为8。这是可行的吗?我需要将预测的张量从1填充到大小42吗?谢谢!一个好的解决方案是
使用
seq2seq,例如
浏览 22
提问于2019-12-29
得票数 5
回答已采纳
1
回答
仅检索
pytorch
序列中
lstm
层的最后一个隐藏状态
、
、
、
我有一个
pytorch
模型
: torch.nn.
LSTM
(40, 256, 3, batch_first=True),例如:hidden = hidden[-1] 尽管如此,该示例仅适用于子类
模型
。我不能在tensorflow.js中
创建
和训练这个
模型
的原因是因为我试图在tensorflow.js中实现这个repo:,同时仍然
使用<
浏览 5
提问于2021-10-05
得票数 0
1
回答
如何在python中从预先训练好的
模型
中获得权重,并在tensorflow中
使用
?
、
、
、
如何在
PyTorch
中从预先训练好的
模型
中获取权重并在TensorFlow中
使用
?这是预先训练好的
模型
:
lstm
= torch.hub.load("BruceWen120/medal", "
lstm
")
浏览 3
提问于2021-11-28
得票数 0
1
回答
如何使输出之和为1
、
我的(
PyTorch
)
模型
输出之和不是1,这是
模型
的结构。
LSTM
(64, 64)Sigmoid() 这是
模型
的预测输出。
浏览 6
提问于2022-07-13
得票数 -1
回答已采纳
1
回答
如何在
pytorch
LSTM
中自定义多个隐藏层单元的数量?
、
、
在
pytorch
LSTM
、RNN或GRU
模型
中,有一个名为"“的参数,它控制
LSTM
中隐藏层的数量。我想知道,既然
LSTM
中有多个层,为什么参数"hidden_size“只是一个数字,而不是包含多个层中隐藏状态的数量的列表,如10、20、30。我在处理一个回归项目时遇到过,在这个项目中,我将(seq_len,batch,feature)的序列数据提供给
LSTM
,我想要获得每个时间步的标量输出。这是理解
pytorch
LSTM
框架的
浏览 6
提问于2019-01-07
得票数 1
1
回答
美国有线电视新闻网->
LSTM
级联
模型
到
PyTorch
闪电
、
、
、
、
我试图隐藏
PyTorch
代码的CNN ->
LSTM
级联
模型
到
PyTorch
闪电。在nn.Module码中有两个
PyTorch
类,一个用于CNN (编码器),一个用于
LSTM
(译码器),最后一个隐藏层作为
PyTorch
的输入。因此,在转换到
PyTorch
闪电之后,有两个pl.LightningModule类。我想知道如何在这两个类中填充所需的方法。以下是
PyTorch
中丢失和优化器的定义;优化器
使用
来自编码器
浏览 0
提问于2021-08-03
得票数 0
1
回答
LSTM
自动编码器的这些实现之间的区别?
、
、
、
我已经看到了一些实现,特别是
使用
这个参数来除去输出序列中的最后一个元素作为自动编码器的“编码器”一半的输出的自动编码器。model.add(TimeDistributed(Dense(1)))该实现在应用
LSTM</e
浏览 4
提问于2020-12-07
得票数 4
回答已采纳
1
回答
如何
使用
return_sequences对堆叠式
LSTM
模型
进行
PyTorch
操作?
、
、
、
我有一个Tensorflow / Keras
模型
,它具有:
LSTM
(
lstm
3self.model.add(Dropout(0.2)) self.model.a
浏览 2
提问于2020-02-26
得票数 3
回答已采纳
1
回答
如何将角煤油
LSTM
转换为?
、
我有一个用Keras编写的非常简单的
LSTM
示例,我正试图将其移植到
pytorch
。但它似乎根本无法学习。我是一个绝对的开始,所以任何建议都是值得感激的。KERAS
lstm
_model = Sequential()
lstm
_model.add(Dense(1))
lstm
_mo
浏览 0
提问于2019-05-10
得票数 1
2
回答
如何在
pyTorch
中实现
LSTM
神经网络的分袋方法?
、
、
和标题一样,我的问题是如何
使用
PyTorch
库将打包方法应用于
LSTM
?我已经在python上
使用
TensorFlow构建了一个。但是现在要隐含到
使用
C和C++的系统中,要求是我需要
使用
PyTorch
? 有什么建议不需要
使用
PyTorch
,直接将基于tensorflow构建的
模型
应用到系统中的真实预测中? 请帮帮我!
浏览 17
提问于2020-01-02
得票数 0
1
回答
如何将
pytorch
模型
集成到动态优化中,例如在Pyomo或gekko中
、
、
、
假设我有一个
pytorch
模型
,描述了某个多维系统基于自身状态x和外部执行器u的演化,所以x_(t+1) = f(x_t,u_t),f是
pytorch
的人工神经网络。有没有一种简单的方法可以
使用
像pyomo或gekko这样的动态优化工具箱做到这一点? 我已经编写了一些代码,将前馈神经网络转换为numpy函数,然后可以将其作为约束传递给pyomo。
浏览 28
提问于2021-05-26
得票数 2
回答已采纳
2
回答
在
PyTorch
中是否存在干净和可扩展的
LSTM
实现?
、
、
、
、
我想自己
创建
一个
LSTM
类,但是我不想从头开始重写经典的
LSTM
函数。深入研究
PyTorch
的代码,我只发现至少涉及3-4个具有继承的类的脏实现: 作为一个明确的例子,我正在搜索的是一个像一样干净的实现,但是在
PyTorch
中
浏览 2
提问于2018-05-04
得票数 11
回答已采纳
1
回答
Keras中卷积递归网络的建模
、
、
、
我试图将
模型
移植到Keras。 但是,在将Conv2D层的输出连接到
LSTM
层时,我被卡住了。来自CNN层的输出将具有( batch_size,512,1,width_dash)的形状,其中第一个依赖于batch_size,最后一个依赖于输入的输入宽度(该
模型
可以接受可变宽度输入)。我试图实现这是Keras,但我无法做到这一点,因为在Keras中,我们不能在keras.models.Sequential
模型
中更改batch_size维度。请有人指导我如何将以上部分的
模型
移植到Keras?
浏览 0
提问于2018-01-20
得票数 6
回答已采纳
1
回答
RuntimeError:应为标量类型Double的对象,但获取了参数#2的标量类型Float
、
、
我有一个
PyTorch
LSTM
模型
,我的forward函数如下所示: print('in forward', x.dtype, hidden[0].dtype, hidden[1].dtype) return
lstm
_out
浏览 8
提问于2020-03-03
得票数 2
回答已采纳
3
回答
将
LSTM
Pytorch
模型
转换为ONNX时出现问题
、
、
、
、
我正在尝试将我的
LSTM
异常检测
Pytorch
模型
导出到ONNX,但遇到错误。请看我下面的代码。class Model(torch.nn.Module): def __init__(self, input_dim, hidden_dim, layer_dim):_Linear', 'l_fc2_Linear', 'l_
lstm
_
LSTM
', 'l_fc1_
浏览 3
提问于2019-08-01
得票数 4
1
回答
如何将
LSTM
与Keras堆栈?
、
、
我的
模型
是: model.add(
LSTM
(128, input_shape=(10, VECTOR_SIZE), return_sequencesTimeDistributed(Dense(VECTOR_SIZE, activation='linear'))) File "/Users/shamoon/.local/share/virtualenvs/
pytorch
-
lstm</e
浏览 4
提问于2020-02-15
得票数 0
回答已采纳
1
回答
在操作员级从深度学习框架导出ONNX
模型
、
、
嗨,我有一些关于导出ONNX
模型
的问题。利用torch.onnx.export生成的ONNX
模型
具有
LSTM
层。但是,我感兴趣的是它是否能够在操作符级别上生成ONNX
模型
,即matmul,add。如果没有,是否有另一种方法可以建立操作符级的ONNX
模型
? 谢谢,杰克
浏览 5
提问于2021-02-10
得票数 0
回答已采纳
1
回答
如何在不混合批次元素的情况下重塑
pytorch
矩阵
、
在我的神经网络
模型
中,我用一个8x256维嵌入矩阵表示一个8个单词的句子。我希望将其作为输入提供给
LSTM
,其中
LSTM
一次接受嵌入的单个单词作为输入并对其进行处理。根据
pytorch
,输入应该是(seq_len, batch, input_size)的形状。将输入转换为所需形状的正确方法是什么?我不想把数字搞混了。我在
PyTorch
和行主计算方面是个新手,所以我想在这里问一下。我这样做,对吗?x = torch.rand(8,256)
lstm
_input = torch.resha
浏览 1
提问于2018-11-28
得票数 2
3
回答
用顺序模块在
PyTorch
中实现简单的线性扫描隧道调制
、
、
、
、
在
PyTorch
中,我们可以通过多种方式定义体系结构。在这里,我想
使用
Sequential模块
创建
一个简单的
LSTM
网络。在Lua的火炬里,我通常会说:model:add(nn.SplitTable(1,2))model:add(nn.Linear(hiddenSize, classes_n
浏览 4
提问于2017-05-23
得票数 6
1
回答
将火炬
LSTM
的状态参数转换为Keras
LSTM
、
、
我试图将一个现有的经过训练的
PyTorch
模型
移植到Keras中。
LSTM
网络的Keras实现似乎有三种状态矩阵,而
Pytorch
实现有四种状态矩阵。例如,对于具有hidden_layers=64、input_size=512和输出size=128状态参数的双向
LSTM
,如下所示[<tf.Variable 'bidirectional_1/forward_
lstm
_1/k
浏览 2
提问于2018-01-20
得票数 11
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
云直播
活动推荐
运营活动
广告
关闭
领券