腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
pytorch
中的keras.layers.Masking相当于什么?
keras
、
deep-learning
、
pytorch
我有
时间
序列
,我需要通过将零填充到矩阵中并在keras中使用keras.layers.Masking来保持
序列
长度固定到一个数字,我可以忽略这些填充的零进行进一步的计算,我想知道如何在
Pytorch
中做到这一点要么我需要在pytroch和
pytorch
中做填充,而
pytorch
不能处理可变长度的
序列
,这相当于
pytorch
中keras的掩蔽层,或者如果
pytorch
处理不同长度的
序列
,怎么做呢?
浏览 73
提问于2019-12-31
得票数 3
回答已采纳
1
回答
在火炬中截断
时间
的反向传播(BPTT)
pytorch
、
backpropagation
、
truncated
在
pytorch
中,我训练RNN/GRU/LSTM网络,方法是启动反向传播(通过
时间
):当
序列
很长时,我希望通过
时间
进行截断的反向传播,而不是使用整个
序列
的
时间
进行正常的反向传播但是,我在
Pytorch
中找不到任何参数或函数来设置截断的BPTT。我错过了吗?我应该自己在毕道尔编码吗?
浏览 3
提问于2018-12-24
得票数 6
2
回答
理解
PyTorch
LSTM的输入形状
python
、
pytorch
、
lstm
、
tensor
这似乎是
PyTorch
中关于LSTM最常见的问题之一,但我仍然无法弄清楚
PyTorch
LSTM的输入形状应该是什么。 即使在跟踪了几个帖子(、、)并尝试了解决方案之后,它似乎也不起作用。背景:我在一批大小为12的文本
序列
中编码了文本
序列
(可变长度),并使用pad_packed_sequence功能对
序列
进行填充和打包。每个
序列
的MAX_LEN为384,
序列
中的每个令牌(或word)的维数为768。因此,我的批处理张量可能具有以下形状之一:[12, 384, 768]或
浏览 6
提问于2020-05-06
得票数 16
回答已采纳
1
回答
PyTorch
几何格式的
时间
序列
数据
pytorch
我有
时间
序列
图数据。我试着预测下一段
时间
的图形表示。是否有任何图形卷积来处理
时间
序列
数据,或者我是否应该使用
PyTorch
几何时态?
浏览 3
提问于2020-11-15
得票数 1
1
回答
为什么简单Elman中的输出形状依赖于
序列
长度(而隐藏状态形状不依赖于
序列
长度)?
pytorch
、
recurrent-neural-network
我正在学习RNN,并试图使用
PyTorch
对其进行编码。因此,1浴大小,并输入1个特征和3个
时间
步骤(
序列
长度)。为什么简单Elman中的输出形状依赖于
序列
长度(而隐藏状态形状不依赖于
序列
长度)?
浏览 2
提问于2020-06-17
得票数 0
回答已采纳
1
回答
对于RNN/LSTM的
序列
数据,通常如何执行批处理
machine-learning
、
neural-network
、
pytorch
、
lstm
对于较长的数据
序列
,它们首先截断数据,以便可以用batch_size均匀划分数据。接下来,他们将数据.reshape()为(batch_size, -1)。然后,他们在这些批次的子
序列
上创建一个滑动窗口。当滑动窗口超出边界时,他们会在末尾添加假数据(通过回绕)。 这个提供的图表可能比我更好地解释: ? 这似乎很奇怪,批次是不连续的子
序列
。这不会使解释单个批处理的输出变得困难吗? 有没有更好的方法?视频中的这位女士直截了当地说了一些感人的话:“我不知道为什么要这样做,但我以前见过,网络训练得很好。”
浏览 21
提问于2020-07-17
得票数 0
2
回答
pytorch
attention seq2seq教程中的错误?
pytorch
、
seq2seq
我正在用
Pytorch
编写
序列
神经网络的
序列
。在official
Pytorch
seq2seq tutorial中,有一个注意力解码器的代码,我不能理解/认为可能包含错误。它通过连接输出和此时的隐藏状态来计算每个
时间
步的注意力权重,然后乘以一个矩阵,得到一个大小等于输出
序列
长度的向量。注意,这些注意力权重不依赖于编码器
序列
(在代码中命名为encoder_outputs ),我认为它应该依赖于编码器
序列
。
浏览 37
提问于2019-05-03
得票数 1
1
回答
对于pad_sequence(),张量a (20)的大小必须与非单例维数为1的张量b (25)的大小匹配。
python
、
pytorch
、
recurrent-neural-network
、
tensor
我的守则: b = torch.ones([1, 25]) 对此代码的跟踪是:有人能向我解释一下这个错误是什么吗?如何解决这个问题?
浏览 14
提问于2022-08-10
得票数 0
2
回答
如何在
Pytorch
中处理大型JSON文件?
deep-learning
、
time-series
、
pytorch
不同的训练
时间
序列
数据存储在一个大小为30 of的JSON文件中。在tensorflow中,我知道如何使用TF记录。
pytorch
也有类似的方式吗?
浏览 6
提问于2019-03-12
得票数 1
1
回答
正确的方法来创建
Pytorch
数据集,返回RNN的数据
序列
?
python
、
deep-learning
、
dataset
、
pytorch
、
rnn
我正在尝试对
时间
序列
数据进行RNN训练,虽然有很多关于如何构建RNN模型的教程,但我在为这个任务构建dataloader对象方面遇到了一些困难。数据都将是相同的长度,所以也不需要填充。
浏览 0
提问于2018-08-20
得票数 2
回答已采纳
2
回答
如何修复关于
序列
元素的
Pytorch
预测模型拟合ValueError
pytorch
、
forecasting
、
pytorch-lightning
我是
Pytorch
_Forecasting的新手。我遵循了“使用
时间
融合转换器进行需求预测”(https://
pytorch
-forecasting.readthedocs.io/en/latest/tutorials/stallion.html)中所描述的完全相同的方法我一直收到这样的错误:"ValueError:字典更新
序列
元素#0具有长度1;需要2“。我不知道这是在哪里发生的。我将感谢任何人的帮助,任何线索,任何能解决我问题的东西 谢谢!!
浏览 42
提问于2021-09-04
得票数 3
1
回答
SHAP DeepExplainer错误:“tuple”对象没有属性“设备”
python
、
deep-learning
、
pytorch
、
time-series
、
shap
我试图用SHAP为我的多元
时间
序列
模型(
PyTorch
)构建一个解释器,如下所示: model.to('cuda:1'),torch.tensor(X_test_matrix,dtype=torch.float).to('cuda:1')) 其中X_test_matrix是一个3D矩阵,因为它是
时间
序列
数据。self.explainer = TFDeep(model, data, session, le
浏览 13
提问于2022-06-20
得票数 1
1
回答
PyTorch
:动态计算图-填充- DataLoader之间的关系
nlp
、
deep-learning
、
padding
、
pytorch
据我所知,
PyTorch
的优点应该是它与动态计算图一起工作。在NLP上下文中,这意味着可变长度的
序列
不一定需要填充到相同的长度。但是,如果我想使用
PyTorch
DataLoader,我仍然需要填充我的
序列
,因为DataLoader只使用张量--因为作为一个完全初学者,我不想构建一些定制的collate_fn。另外,如果我把我的
序列
作为张量输入到DataLoader中,在结束时多个零作为填充标记(在单词if的情况下),它会不会对我的训练产生任何负面影响,因为
PyTorch
可能不会为填充<
浏览 10
提问于2018-01-13
得票数 4
回答已采纳
1
回答
如何在
pytorch
LSTM中自定义多个隐藏层单元的数量?
lstm
、
pytorch
、
recurrent-neural-network
在
pytorch
LSTM、RNN或GRU模型中,有一个名为"“的参数,它控制LSTM中隐藏层的数量。我在处理一个回归项目时遇到过,在这个项目中,我将(seq_len,batch,feature)的
序列
数据提供给LSTM,我想要获得每个
时间
步的标量输出。这是理解
pytorch
LSTM框架的有用链接。如果有人能回答这个问题,我将不胜感激。
浏览 6
提问于2019-01-07
得票数 1
1
回答
在火炬中实现有状态LSTM/ConvLSTM的最佳方法是什么?
python
、
pytorch
、
conv-neural-network
、
lstm
、
recurrent-neural-network
,一个长
序列
的500个图像需要被分割成更小的片段,在
Pytorch
ConvLSTM层。例如,它可以被分成10个片段,每个片段都有50个
时间
步骤。我有两个目标: 我想一个接一个地输入(视频)的图像,。也就是说,500个图像的长
序列
被分割成500个片段,每个片段只有一个图像。输入应该类似于(all_samples, channels, rows, cols)。我为Tensorflow找到了一些很好的答案,但我用的
浏览 10
提问于2021-04-07
得票数 2
回答已采纳
1
回答
放电筒的输入输出
deep-learning
、
pytorch
、
lstm
、
recurrent-neural-network
由于我的数据是一个
时间
序列
数据,即用于心率检测的视频帧,所以我想在
pytorch
中实现lstms,因为我的数据是一个
时间
序列
数据,即用于心率检测的视频帧,我正在为lstms的输入和输出维数和输出维数而苦苦挣扎--当考虑到
时间
步骤、隐藏状态等时,应该如何正确地配置在移相器中的lstms的尺寸/参数/参数,因为当考虑到
时间
步骤、隐藏状态等时,我的CNN输出是“2批256帧”,现在输入到lstms批的输入是2个特征
浏览 7
提问于2022-04-02
得票数 1
1
回答
如何调试保存模型TypeError:无法pickle SwigPyObject对象?
serialization
、
pytorch
、
pickle
nn.Softmax(dim=-1) # this prevents
PyTorch
浏览 179
提问于2020-01-11
得票数 1
回答已采纳
2
回答
深度学习图书馆中NLP的动态批处理和填充批
nlp
、
pytorch
、
huggingface
、
dynamic-batching
、
pad-truncate
还是
PyTorch
/ Tensorflow或其他低级张量库重新优化批处理,使pads不占用内存?如果是的话,在这个?中
浏览 0
提问于2023-04-07
得票数 2
3
回答
PyTorch
:用于
时间
序列
任务的Dataloader
python
、
pandas
、
pytorch
、
torch
我有一个Pandas,它的n行和k列加载到内存中。我希望获得预测任务的批处理,其中批处理的第一个训练示例应该具有形状(q, k),其中q引用原始数据中的行数(例如0:128)。下一个例子应该是(128:256, k)等等。因此,最终,一批应该具有与批大小相应的32的形状(32, q, k)。这里有一个很小的例子来说明这一点。
浏览 1
提问于2019-09-11
得票数 11
回答已采纳
3
回答
扩充拓扑(整形)神经网络的神经进化可以在TensorFlow中构建吗?
python
、
tensorflow
、
pytorch
、
neat
我正在制作一个用于
时间
序列
数据分析的机器学习程序,使用NEAT可以帮助我完成这项工作。我不久前才开始学习TensorFlow,但似乎TensorFlow中的计算图通常是固定的。或者像
Pytorch
这样的东西会是更好的选择?谢谢。
浏览 10
提问于2018-09-12
得票数 7
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Pytorch实现CNN时间序列预测
在Python中使用LSTM和PyTorch进行时间序列预测
PyTorch-Forecasting一个新的时间序列预测库
时间序列监控-prometheus
python实现时间序列
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
云直播
实时音视频
活动推荐
运营活动
广告
关闭
领券