腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(531)
视频
沙龙
1
回答
torch.autograd.grad
中
的
grad_outputs
(
CrossEntropyLoss
)
、
第一个选项: loss.backward() inputs = x,
grad_outputs
= ?) 我
的
问题是:如果我使用交叉熵损失,我应该在第二个选项
中
传递什么作为
grad_
浏览 196
提问于2019-01-13
得票数 5
回答已采纳
2
回答
如何为多个输出编写参数?
、
、
在“ of
torch.autograd.grad
”中指出,对于参数, 输出(张量序列)-差异化函数
的
输出。输入(张量序列)-输入w.r.t.其中
的
梯度将被返回(而不是累积到.grad
中
)。我尝试以下几点:b = torch.rand(2, requires_grad=True)d = a-b
torch.autograd.grad
([c, d], [a, b]) #ValueError: only
浏览 2
提问于2019-09-23
得票数 5
回答已采纳
1
回答
Pytorch:计算子矩阵梯度
的
正确方法
、
我想计算子矩阵上
的
梯度。torch.zeros((3, 5), requires_grad=True)print(f'full grad shape = {grad.shape}') grad =
torch.autograd.grad
(loss, A[:1, :])[0]print(f'grad shape = {grad.shape}'
浏览 0
提问于2021-09-12
得票数 0
1
回答
如何在依赖于模型w.r.t输入
的
偏导数
的
情况下定义一个丢失函数?
、
、
为了恢复现有的问题,如所示,它
的
目的是在区域-2 <= x <= 2
中
求解ODE y‘= -2*x*y,条件是y(x=0) =1,而不是使用有限差分,而是用n替换为y(x) = NN(x)。(y, x, create_graph=True, retain_graph=True)问题是,在ODE函数
的
定义
中
,我宁愿传递(x,y)之类
的
东西(其中乐趣是我
的
模型
浏览 0
提问于2019-11-13
得票数 2
回答已采纳
1
回答
用自格法计算输出相对于输入
的
雅可比矩阵
、
如果这个问题是显而易见
的
或微不足道
的
,我很抱歉。我对pytorch非常陌生,我正在尝试理解py手电筒
中
的
autograd.grad函数。我有一个神经网络G,它接收输入(x,t)和输出(u,v)。在每一个训练步骤
中
,我都有一个小批号$100$所以u(x,t)是一个100,1张量。下面是我计算偏导数
的
尝试,在这里,和弦是输入(x,t),就像下面一样,我还将requires_grad_(True)标志添加到了同弦
中
: tensor = GeneratorNet(coords)
浏览 1
提问于2019-12-03
得票数 4
回答已采纳
1
回答
grad_outputs
在PyTorch's
torch.autograd.grad
中
的
意义
、
我很难理解
grad_outputs
选项在
中
的
概念意义。
grad_outputs
应该是包含Jacobian向量积
中
的
“向量”
的
长度匹配输出序列,通常是预先计算
的
梯度w.r.t。每项产出。为什么“向量”在引号
中
?实际上,在下面的示例
中
,当
grad_outputs
是向量时,而不是当它是矩阵时,我得到了一个错误。.]], grad_fn=<MulBackward0>) >
浏览 5
提问于2021-08-13
得票数 5
回答已采纳
1
回答
在PyTorch
中
从网络输出中计算梯度会产生误差
、
、
我试图使用一个手动计算梯度使用我
的
网络输出,然后我将使用这个损失函数。我成功地获得了一个在keras
中
工作
的
示例,但是将它转换为PyTorch更困难。torch.unsqueeze(torch.linspace(-1, 1, 101), dim=1)然后,我可以尝试找到一个梯度,比如:grad =
torch.autograd.grad
,但是如果我将它更改为很多,它就表示它不是图形
的
一部分。我可以通过允许这样做来消除这个错误,但是它说我<
浏览 3
提问于2020-12-22
得票数 0
回答已采纳
1
回答
Pytorch求和jacobian对输入而不是输出
、
、
、
通常,当我应用
torch.autograd.grad
(Y, X,
grad_outputs
=torch.ones_like(Y))时,我会得到一个与X相同形状
的
渐变掩模。(2)# X = [1 0]# Y = [1, 1] >>>
torch.autograd.grad
(Y, X,
grad_outputs
=torc
浏览 3
提问于2021-08-30
得票数 2
回答已采纳
1
回答
丢失函数
中
带有torch.nn.DataParallel
的
torch.autograd.grad
失败
、
、
、
为此,梯度是在损失函数中计算
的
(例如,梯度总是单位长度
的
符号距离字段(sdfs)
的
属性)。normal_constraint.mean() * 1e2,而梯度计算则使用
torch.autograd.grad
def gradient(y, x,
grad_outputs
=None):
浏览 10
提问于2021-08-04
得票数 2
1
回答
用
torch.autograd.grad
(PyTorch)计算矩阵导数
、
我正在尝试使用
torch.autograd.grad
在PyTorch中计算矩阵导数,但是我遇到了一些问题。下面是一个重现错误
的
最小工作示例。torch.sin(theta), torch.cos(theta), 0]],
torch.autograd.grad
(outputs=rot_mat, inputs=theta,
grad_outputs
=torc
浏览 57
提问于2020-08-16
得票数 2
回答已采纳
1
回答
PyTorch:用nn.parameters()计算Hessian向量积
使用PyTorch,我想计算Hessian向量乘积,其中Hessian是某个神经网络损失函数
的
二阶导数矩阵,该向量将是该损失函数
的
梯度向量。### compute the gradient and make a copy that is detached from the gr
浏览 0
提问于2019-02-07
得票数 2
1
回答
如何计算向量函数
的
一个分量
的
偏导数?
、
, u[2])---> 19 grad_Psi_0 =
torch.autograd.grad
(psi[0], u[0]) 20 grad_Psi/.local/lib/python3.10/site-packages/torch/autograd/__init__.py:275, in grad(outputs, inputs,
grad_outputs
_vmap(vjp, 0, 0, allow_none_
浏览 79
提问于2022-07-27
得票数 0
回答已采纳
1
回答
割炬梯度计算
、
、
我正在努力弄清楚函数grad到底是如何工作
的
。).requires_grad_()print("A : ", A)do_dinput =
torch.autograd.grad
(o, A,
grad_outputs
=torch.ones(2, 1))我原以为torch.Size([1,3])会被打印
浏览 1
提问于2020-01-27
得票数 0
回答已采纳
2
回答
Pytorch BERT输入梯度
、
、
、
、
我正在试图从一个BERT模型
中
得到输入梯度。我怎么能这么做?假设,y‘= BertModel(x)。我正在寻找$d(loss(y,y'))/dx$
浏览 14
提问于2022-09-16
得票数 -1
1
回答
当输入是3D时,“交叉熵损失”究竟在做什么?
、
、
、
我在研究一个产生文本
的
神经网络。我发现,当计算交叉熵损失时,如果输入
的
大小为[batch_size, vocab_size, seq_len],目标的大小为[batch_size, seq_len],那么无论我训练多久,该模型都不能工作所以我
的
问题是,当处理3D输入时,交叉熵损失到底在做什么?为什么第一种计算损失
的
方法在我
的
任务中行不通?
浏览 8
提问于2022-09-12
得票数 0
3
回答
找不到就地运算:梯度计算所需
的
一个变量已被就地运算修改
、
我试图计算网络
的
雅可比矩阵
的
损失(即执行双反向支持),得到以下错误: RuntimeError:梯度计算所需
的
一个变量已被原地操作修改 grad_output[:, i] = 1
浏览 1
提问于2018-12-09
得票数 2
回答已采纳
1
回答
当使用代码
torch.autograd.grad
()时,每个时期
的
运行时间都在增加。
、
、
、
我使用
torch.autograd.grad
()函数来计算两个损失函数
的
梯度(用于平衡这两个损失
的
权重),loss2_grads =
torch.autograd.grad
(loss2, model.parameters(), retain_graph=True)loss = loss1+alpha*loss2#alpha rel
浏览 4
提问于2022-10-25
得票数 -1
1
回答
chainer向后函数
中
的
参数"
grad_outputs
“是什么?
3个问题: 在chainer函数F.transpose
中
的
一个例子,如何解释这个反向代码?def向后(自,输入,
grad_outputs
):gy =
grad_outputs
inv_axes = self.axes,如果self.axes: ax = tuple(ax % len(self.axesself.axes) inv_axes = tuple(numpy.argsort( axes )) gx = gy.transpose(i
浏览 1
提问于2017-08-27
得票数 0
1
回答
在损失函数中使用自梯度时PyTorch不更新权重
、
、
我试图使用网络
的
梯度相对于它
的
输入作为损失函数
的
一部分。然而,每当我试图计算它时,训练就会继续进行,但是权重不会更新。0] inputs=ic,
grad_outputs
浏览 0
提问于2020-10-24
得票数 2
回答已采纳
4
回答
具有多个值
的
张量
的
Bool值在Pytorch
中
是不明确
的
、
它总是以一个以上
的
值返回
的
Bool值,实际上,我运行
的
是示例代码,它可以工作。loss =
CrossEntropyLoss
()inputtarget这是我
的
密码 ###############################################################
浏览 0
提问于2018-10-23
得票数 46
回答已采纳
点击加载更多
相关
资讯
在C+中使用TensorFlow训练深度神经网络
如何仅使用TensorFlow C+来训练深度神经网络
Deepy-基于 Numpy 的小巧优雅简单的深度学习库
快速可微分排序算法包,自定义C ++和CUDA,性能更好
Python中的类型提示(中)
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券