腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Pytorch
中
的
简单
数据
调用
RNN
、
我正在学习
Pytorch
,并试图建立一个可以记住以前输入
的
网络。我尝试了两种不同
的
输入/输出结构(见下文),但没有得到任何我想要
的
工作方式。,但似乎没有一种方法是可靠
的
。我认为我唯一正确
的
事情是net.hidden = net.init_hidden()应该超越每个时代和loss.backward(retain_graph=True),但这似乎没有任何作用 目前,它可以学习序列
中
的
最后一个数字,但似乎永远不会学习其他任何数字 我
的</
浏览 6
提问于2019-03-18
得票数 0
1
回答
torch.nn.DataParallel不在放电筒
中
工作
、
、
、
我在脚本中使用了DataParallel,因为多个Gpu.The只使用id为0
的
gpu,而不使用id为1
的
gpu。所以利用率非常高,low.Here是完整
的
代码:fromtorch.nn.utils.clip_grad_norm(
rnn
_model.parameters(), cfg.TRAIN.
R
浏览 0
提问于2018-06-18
得票数 1
1
回答
RNN
的
损失丝毫没有减少
、
、
、
、
(torch.nn.Module): super(
RNN
, selflayer to hidden layer weightdef onehot(v
浏览 6
提问于2018-02-26
得票数 1
1
回答
将火炬LSTM
的
状态参数转换为Keras LSTM
、
、
我试图将一个现有的经过训练
的
PyTorch
模型移植到Keras
中
。LSTM网络
的
Keras实现似乎有三种状态矩阵,而
Pytorch
实现有四种状态矩阵。例如,对于具有hidden_layers=64、input_size=512和输出size=128状态参数
的
双向LSTM,如下所示[<tf.Variable 'bidirectionalfloat32_ref>, &l
浏览 2
提问于2018-01-20
得票数 11
回答已采纳
1
回答
如何正确地将
pytorch
LSTM转换为keras CuDNNLSTM?
、
、
、
我正在尝试手动将
Pytorch
模型转换为Tensorflow进行部署。ONNX似乎不是天生就能从
Pytorch
LSTM到Tensorflow CuDNNLSTM
的
,所以这就是我手写它
的
原因。我尝试过下面的代码:这是在运行Python2.7,
Pytorch
1.0,TensorFlow1.12,cuda9
的
Anaconda环境
中
运行
的
。我在
Pytorch
层运行时没有偏置,因为它遵循批处理规范,但由于Keras没有提供该选项,我只是<em
浏览 229
提问于2019-05-21
得票数 0
回答已采纳
1
回答
为什么
PyTorch
RNN
不接受未批处理
的
输入?
、
我试图训练一个
PyTorch
神经网络来预测一维序列
中
的
下一个值。根据
PyTorch
文档页面,我认为我应该能够将未批处理
的
输入输入到L形状
的
RNN
中
,其中L是序列
的
长度,H_in是输入
的
长度。= torch.nn.
RNN
(1, 1, 1) prediction_los
浏览 6
提问于2022-05-13
得票数 1
1
回答
文件"train.py",第35行,clip_gradient模块= p.grad.data.norm()
、
、
、
、
=================================================================AttributeError: 'NoneType' object has no attribute 'data' [jalal@goku
pytorch
_se
浏览 3
提问于2018-03-09
得票数 0
1
回答
flatten_parameters()是做什么
的
?
我在
RNN
的
前向函数中看到了许多使用flatten_parameters
的
Pytorch
示例。self.
rnn
.flatten_parameters() 那是什么意思?
浏览 0
提问于2018-11-09
得票数 16
1
回答
pytorch
模型
的
预期尺寸大小
、
我正在努力理解我
的
pytorch
模型需要什么样
的
维度作为输入。我
的
模型设置是:from torch import nn, tensor def __init__(self, input_size(1, 2, 1)IndexError: dimension specified as 1 but tenso
浏览 1
提问于2019-11-21
得票数 2
1
回答
使用cnn火把可变长度
的
文本
、
、
、
、
我是个生手,我想知道CNN
中
可变长度句子序列
的
最佳实践是什么。 我想使用CNN在快速文本生成
的
词条上进行特征选择,然后将输出输入到LSTM。
浏览 1
提问于2019-07-28
得票数 2
回答已采纳
1
回答
PyTorch
:将单词向量加载到字段词汇表和嵌入层
、
、
、
我要从凯拉斯到
PyTorch
。I希望用GloVe向量创建一个
PyTorch
嵌入层(一个大小为V x D
的
矩阵,其中V超过词汇表,而D是嵌入向量维),但对所需
的
步骤感到困惑。])#
PyTorch
code.) 我认
浏览 3
提问于2020-06-09
得票数 5
回答已采纳
2
回答
毕道尔
的
并行方法和分布式方法是如何工作
的
?
、
、
、
我不是分布式系统和
数据
自动化系统
的
专家。但是有一个非常有趣
的
特性是
PyTorch
支持
的
,那就是nn.DataParallel和nn.DistributedDataParallel。它们是如何实际实现
的
?它们如何分离公共嵌入和同步
数据
? embedding=nn.Embedding(1000, 10),
rnn
=nn.Lin
浏览 0
提问于2018-11-19
得票数 48
1
回答
C++函数器初始化
我不能理解下面的代码示例
中
{}
的
用途。为什么不用cell_type{}(...)代替cell_type(...)呢?我只是在这里放了一个简化
的
版本,希望能显示足够
的
上下文。如果您需要更多信息,可以在https://github.com/
pytorch
/
pytorch
/blob/master/aten/src/ATen/native/
RNN
.cpp#L781<em
浏览 18
提问于2019-06-29
得票数 0
回答已采纳
1
回答
Pytorch
model.train()和教程
中
编写
的
分离序列()函数
、
、
我是
PyTorch
的
新手,我想知道您是否可以向我解释一下
PyTorch
中
的
默认model.train()函数和这里
的
train()函数之间
的
一些关键区别。另一个
PyTorch
()函数位于文本分类
的
官方train教程
中
,对于模型权重是否在训练结束时存储感到困惑。https://
pytorch
.org/tutorials/intermediate/ch
浏览 24
提问于2019-06-26
得票数 0
1
回答
Lib火炬:无法加载跟踪
的
lstm脚本模型
、
、
我保存了一个
pytorch
并使用lib手电筒加载它。然而,我遇到了以下问题 我在win10下使用linux子系统,我使用pytoror1.2。要重现我
的
问题,您可以运行这段python代码来保存pt模型。import torch class test(0.1) self.
rnn
浏览 2
提问于2019-08-16
得票数 0
回答已采纳
1
回答
TypeError:无法将'torch.cuda.FloatTensor‘赋值为参数'weight_hh_l0’(应为torch.nn.Parameter或不应为None )
我正在尝试训练这个repo https://bitbucket.org/VioletPeng/language-model/src/master/
中
实现
的
模型(第二个模型:标题到标题-故事线到故事模型) 训练在第一个时期进行得很好,但是一旦它试图
调用
训练函数来开始第二个时期,所有的东西都会中断,我得到了以下错误: TypeError: cannot assign 'torch.cuda.FloatTensorparameter 'weight_hh_l
浏览 1788
提问于2021-11-22
得票数 0
1
回答
在
pytorch
中
屏蔽和计算通过具有线性输出层
的
RNN
发送
的
填充批次
的
损失
、
虽然这是一个典型
的
用例,但在通过
RNN
发送时,我找不到一个
简单
而明确
的
指南来说明在
pytorch
中计算填充小批量
的
损失
的
规范方法是什么。我认为一个规范
的
管道可能是: 1)
pytorch
RNN
需要形状
的
填充批量张量:(max_seq_len,batch_size,emb_size) 2)所以我们给出一个嵌入层,例如这个张量: tensor批次
中
的
序列是降序<em
浏览 18
提问于2019-12-12
得票数 2
回答已采纳
1
回答
计算tf.while_loop各时间步长
的
梯度
、
、
、
steps, x_out] condition, [steps, layer_1]一些笔记 在我
的
网络
中
不同
的
运行将以不同
的
次数运行while循环。使用tf.gradients(x, tf.trainable_variables())
调用
AttributeError: 'WhileContext' object has no attribute '在循环中使用tf.grad
浏览 0
提问于2018-03-29
得票数 10
回答已采纳
1
回答
使用和不使用nn.
RNN
之间
的
代码差异
、
大家好,我是
rnn
的
新手,我从
pytorch
官方教程中找到了
RNN
NLP FROM SCRATCH,我认为它之所以被命名为"from scartch“,是因为它没有在
pytorch
中使用在nn
中
内置
的
nn.
RNN
,比如def __init__(self, input_size, hidden_size, output_size):段
中
的
这行self.
rnn
= nn.
RNN</e
浏览 26
提问于2021-06-24
得票数 1
1
回答
Pytorch
LSTM与交叉熵
、
、
、
、
我
的
工作是情绪分析,我想把输出分为4类。对于loss,我使用
的
是我
的
批次大小为12,序列大小为32。import torch.nn as nn def __init__(self, hidden_dim = 256, input_size = 32
浏览 2
提问于2021-05-14
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Pytorch 学习笔记之自定义 Module
手把手教你用PyTorch实现图像描述
Excel提取数组中的数据,用TAKE函数其实很简单
Excel中数据拆分的4种技巧,简单高效,易学易懂!
如何入门PyTorch自然语言处理?
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券