腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6692)
视频
沙龙
1
回答
梯度
计算
所需
的
变量
之一
已
通过
就地
操作
进行了
修改
:
python
、
pytorch
、
reinforcement-learning
我试图用pytorch 1.5
计算
深度确定性策略
梯度
算法中
的
策略目标网络损失,得到以下错误。这是我
的
网络和训练进度。在actor网络中,输出向量
的
长度是20,这意味着一个连续
的
动作。评价网络
的
输入由状态向量和动作向量组成。self.qf_losses.append(qf_loss.item()) 我也接受了使用with torch.autograd.set_detect_anomaly(True).
的
提示给出
的
建议在我
的</e
浏览 88
提问于2020-09-08
得票数 2
1
回答
PyTorch
梯度
计算
所需
的
变量
之一
已
通过
就地
操作
进行了
修改
python
、
pytorch
我正在用PyTorch做一个策略
梯度
方法。我想将网络更新移动到循环中,但它停止了工作。我还是个PyTorch新手,如果原因很明显的话,很抱歉。以下是运行正常
的
原始代码:G = T.tensor(G, dtype=T.float).to(self.policy.device)我读到这个RuntimeError经常与克隆某些东西有关,因为我们对使用了相同
的
张量,但我不能理解我
的
例子中哪里出了问题。
浏览 0
提问于2021-02-13
得票数 0
1
回答
梯度
计算
所需
的
一个
变量
已
通过
就地
操作
进行了
修改
python
、
pytorch
这是我
的
LossFunction,当我使用这个函数时,它会出现这个错误。我该怎么办?谢谢你
的
帮忙!objmask = torch.tensor(truth[:,:6,:,:],dtype=torch.float32,requires_grad=False) #没有物体
的
BoxesobjLoss = torch.sum(objmask*self.myBCEWithLogitsLoss
浏览 6
提问于2018-11-25
得票数 1
1
回答
是否有一种在火炬中训练不可训练
的
神经网络
的
方法?
python
、
deep-learning
、
neural-network
、
pytorch
关于如何训练
的
概念是否真的适用于那些无法训练
的
准分子? print('Epoch: ' +str(epoch)+ 'Loss: '+str(train_loss/s))错误:
梯度
计算
所需
的
变量
<
浏览 2
提问于2022-02-28
得票数 0
回答已采纳
1
回答
遇到RuntimeError:
梯度
计算
所需
的
变量
之一
已被内部
操作
修改
pytorch
、
backpropagation
、
autograd
在调用.backward()时,我得到了以下错误:下面是代码: for i, j, k in zip(X, Y, Z):
浏览 0
提问于2019-08-29
得票数 1
回答已采纳
1
回答
梯度
计算
所需
的
变量
之一
已
通过
原地
操作
进行了
修改
:[torch.cuda.FloatTensor [640]]版本4;
python
、
pytorch
、
loss-function
、
distributed-training
、
adversarial-machines
损失函数是可以在DataParallel模式下运行
的
trades.The代码。但是在DistributedDataParallel模式下,我得到了这个错误。当我将损失更改为AT时,它可以成功运行。为什么不能在交易亏损
的
情况下运行?
浏览 160
提问于2021-04-30
得票数 0
回答已采纳
1
回答
火炬
梯度
尚未
计算
python
、
pytorch
我在重新
计算
梯度
时遇到了问题。问题是,我按比例乘了两个张量u @ v,并对其中一个张量
进行了
规范化。重要
的
是,不能
计算
h
的
梯度
。因此,我使用detach()。此外,在重新
计算
梯度
时,不应考虑规范化(我不知道如何做到这一点)。loss = criterion(outputs, targets) optimizer.step() RuntimeError:
梯
浏览 0
提问于2019-08-19
得票数 3
回答已采纳
1
回答
PyTorch:“
梯度
计算
所需
的
变量
之一
已被内部
操作
修改
”
python
、
pytorch
、
recurrent-neural-network
我正在训练一个PyTorch RNN来预测给定一个字符
的
下一个字符。下面是我
的
RNN
的
定义:import torch.optim def __init__(self, input_sizenum_chars)optimizer = torch.optim.AdamW(rnn.parameters(), lr = lr) 这是我
的
训练功能print(&q
浏览 2
提问于2021-09-07
得票数 2
回答已采纳
3
回答
RuntimeError:
梯度
计算
所需
的
变量
之一
已被内部
操作
修改
python
、
pytorch
、
in-place
在pytorch模型训练过程中,我得到了以下错误: RuntimeError:
梯度
计算
所需
的
变量
之一
已被内部
操作
修改
:[torch.cuda.LongTensor 128,1]位于版本8;预期
的
版本7提示:上面的回溯跟踪进一步显示了未能
计算
其
梯度
的
操作
。所讨论
的
变量
在那里或以后
的
任何地方都
进行了</e
浏览 0
提问于2019-08-23
得票数 6
回答已采纳
1
回答
错误:
梯度
计算
所需
的
变量
之一
已被内部
操作
修改
。
python
、
pytorch
、
reinforcement-learning
我正在为我
的
一个项目使用软Actor-批评者实现可用
的
。错误产生于sac.py文件中
的
梯度
计算
。我看不出手术可能在什么地方。有什么帮助吗?
浏览 7
提问于2020-05-10
得票数 0
回答已采纳
2
回答
RuntimeError:
梯度
计算
所需
的
变量
之一
已被原地
操作
修改
?
python
、
deep-learning
、
computer-vision
、
pytorch
、
generative-adversarial-network
我
的
代码是非常简单
的
gan代码,它正好适合sin(x)函数:import torch.nn as nnimport matplotlib.pyplotcomputational graph G_loss.backward()但是当我运行它
的
时候得到了这个错误我
的
代码有什么问题吗?
浏览 102
提问于2020-05-28
得票数 8
回答已采纳
1
回答
梯度
计算
所需
的
变量
之一
已被内部
操作
修改
:无法找到内部
操作
python
、
pytorch
、
gradient
、
conv-neural-network
下面有这段代码,我找不到阻止
梯度
计算
的
内部
操作
。
浏览 4
提问于2020-07-21
得票数 1
回答已采纳
1
回答
无法修复: RuntimeError:
梯度
计算
所需
的
变量
之一
已被内部
操作
修改
python
、
deep-learning
、
pytorch
、
generative-adversarial-network
discriminator_loss += discriminator_loss_per_update.item() RuntimeError:
梯度
计算
所需
的
变量
之一
已被内部
操作
修改
:[torch.cuda.FloatTensor 1,512,4,4]位于版本2;预期
的
版本1改为。提示:上面的回溯跟踪进一步显示了未能
计算
其
梯度
的
<em
浏览 7
提问于2021-05-15
得票数 0
1
回答
Adam优化器错误:
梯度
计算
所需
的
变量
之一
已被内部
操作
修改
。
optimization
、
error-handling
、
deep-learning
、
pytorch
、
reinforcement-learning
~\Anaconda3 3\lib\site-packages\torch\tensor.py在向后(self,
梯度
,retain_graph,create_graph) 100个产品中。grad_tensors,retain_graph,create_graph,--> 90 allow_unreachable=True) # allow_unreachable标志91 92 RuntimeError:
梯度
计算
所需
的
变量
之一
已被内部
操作
浏览 0
提问于2019-04-14
得票数 2
回答已采纳
3
回答
找不到
就地
运算:
梯度
计算
所需
的
一个
变量
已被
就地
运算
修改
pytorch
、
backpropagation
我试图
计算
网络
的
雅可比矩阵
的
损失(即执行双反向支持),得到以下错误: RuntimeError:
梯度
计算
所需
的
一个
变量
已被原地
操作
修改
我在代码中找不到inplace
操作
,所以我不知道该修复哪一行。
浏览 1
提问于2018-12-09
得票数 2
回答已采纳
1
回答
如何找到导致RuntimeError
的
变量
:
梯度
计算
所需
的
变量
之一
已被内部
操作
修改
python
、
pytorch
我正在尝试创建一个非常简单
的
网络,其中包含一个GRUcell层,以执行以下任务:在两个位置
之一
给出提示。在T个时间步骤之后,代理必须学会在相反
的
位置采取特定
的
操作
。在试图
计算
后向
梯度
时,我会得到以下错误: 一
浏览 2
提问于2019-05-01
得票数 2
1
回答
避免内部
操作
修改
参数
的
有效方法
python
、
pytorch
我有一个model,它有噪声线性层(您可以从mu和sigma参数中采样值),并且需要为它创建两个去相关
的
输出。这意味着我有这样
的
东西:output_1 = model(input) model.sample_noise()sample_noise实际上根据正态分布
修改
了附加在model上
的
权重。但最终这会导致 RuntimeError:
梯度
<em
浏览 2
提问于2019-10-02
得票数 0
1
回答
以下Pytorch结果背后
的
解释
python
、
pytorch
、
gradient-descent
、
autograd
但我
的
问题是,
变量
b是在函数中创建
的
,所以应该在函数返回a*b后从内存中删除,对吧?那么,当我向后调用时,b
的
值是如何存在
的
,以允许这种
计算
?据我所知,Pytorch中
的
每个
操作
都有一个上下文
变量
,该
变量
跟踪用于反向
计算
的
“哪个”张量,并且每个张量中也存在版本,如果版本发生更改,则向后应该会引发错误,对吧?torch.tensor(10,dtype=torch.float32,re
浏览 22
提问于2020-06-21
得票数 1
回答已采纳
1
回答
RuntimeError:
梯度
计算
所需
的
一个
变量
已被一个
就地
操作
修改
: PyTorch error
python
、
neural-network
、
pytorch
我试图在PyTorch中运行一些代码,但在这一点上我遇到了麻烦: 在第一次迭代中,判别器和生成器
的
向后
操作
都运行良好 ....根据torch.autograd.set_detect_anomaly
的
说法,鉴别器网络中
的
最后一行负责这一点: bottleneck = bottleneck[:-1] self.logit = self.layers[-1](self.embedding) 奇怪
的
是,我在其他代码
浏览 1023
提问于2020-11-21
得票数 2
1
回答
Pytorch语句生成器: RuntimeError:
梯度
计算
所需
的
变量
之一
已被内置
操作
修改
python
、
pytorch
、
lstm
、
autoencoder
我正在尝试做一个LSTM作为学习阶段,为今后
的
工作与电筒。我设法让它在一些小
的
测试数据上工作,但是现在我想在实际数据上运行它,所以我不断地得到这个错误: RuntimeError:
梯度
计算
所需
的
变量
之一
被内部
操作
修改
了:[torch.FloatTensor 10,40],它是TBackward
的
输出0,在版本2;预期
的
版本1。提示:上面的回溯跟踪进一步显示了未能
计算</em
浏览 3
提问于2020-12-10
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
NIPS2018最佳论文解读:Neural Ordinary Differential Equations
小菜与老鸟之机器学习07
看我用梯度下降优化方法在Python中实现单边量线性回归!纯干
如何自己实现简单的Google深度学习框架TensorFlow(二)?
深度学习之人工神经网络及优化(三)
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券