腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1166)
视频
沙龙
1
回答
为什么
Pytorch
autograd需要另一个向量来向后而不是
计算
雅可比?
、
、
、
、
要在
Pytorch
中执行backward,我们可以使用一个可选参数y.backward(v)来
计算
乘以v的
雅可比矩阵
x = torch.randn(3, requires_grad=True)y.backward(v) print(x.grad) 我认为
计算
雅可比矩阵
的成本是相同的,因为
计算
雅可比矩阵
所必需的AD图中的每个节点仍然是<
浏览 27
提问于2020-09-10
得票数 4
回答已采纳
2
回答
PyTorch
如何
计算
二阶
雅可比矩阵
?
、
、
我有一个神经网络,它正在
计算
一个向量u。我想
计算
关于输入x的一阶和
二阶
jacobians,即单个元素。 有人知道
如何
在
PyTorch
中做到这一点吗?bias=True) (6): Linear(in_features=50, out_features=501, bias=True)) 然后我同时
计算
浏览 126
提问于2020-11-24
得票数 6
1
回答
如何
计算
神经网络输出层
二阶
导数?
、
、
、
、
( 1)
如何
计算
输出层的
二阶
导数。由于我在一阶导数,我必须减去输出从期望的输出,并乘以它的输出的导数。但在
二阶
导数中,我怎么能做到呢?有人能给我解释一下在opencv里怎么做,或者
如何
用数学解释或任何显示数学的参考资料。提前谢谢。
浏览 0
提问于2014-03-29
得票数 2
回答已采纳
1
回答
PyTorch
:有可能区分一个矩阵吗?
、
、
如何
在
PyTorch
中区分矩阵?
浏览 4
提问于2020-07-26
得票数 2
1
回答
Drake Rigid_body_tree
计算
雅可比问题
我目前正在尝试使用方程的"rigid_body_tree.cc“文件
计算
库卡手臂的
雅可比矩阵
: Tau = J^T*F,其中Tau是库卡手臂的7个关节力矩,F是笛卡尔作用力和末端执行器处的扭矩,J^T是换位的
雅可比矩阵
该函数首先
计算
几何
雅可比矩阵
,输出6x7矩阵(kuka有7个关节)J.template block<kSpaceDimension, 1>, *it).noalias()
浏览 22
提问于2019-11-20
得票数 0
回答已采纳
1
回答
PyTorch
:二元函数的高阶导数
、
、
、
、
,yn],其中每个xi和yj都是d-dimensional向量,我想用i,j个元素[f(xi,yj)]_ij来
计算
矩阵。我可以通过广播和做一些像f(X.unsqueeze(1),Y)这样的事情在
PyTorch
中做到这一点。我真正想要
计算
的是下面的矩阵:[d/dx d/dy f(xi,yj)]_ij,其中我假设每个xi和yi都是标量值。我该
如何
在
PyTorch
中做到这一点?我知道,对于单输入函数和一阶导数,我可以这样做(使用
PyTorch
的autograd.grad):
浏览 41
提问于2021-01-24
得票数 0
2
回答
numpy:
如何
计算
雅可比矩阵
、
、
、
我举了一个两个矩阵的点积的例子,我想
计算
这个点积的
雅可比矩阵
。第一矩阵的形状为4×3,第二矩阵的形状为2×4。得到的
雅可比矩阵
的形状应该是(4x3x2x3),因为我是从第一个矩阵开始
计算
它的。假设
雅可比矩阵
的每个元素都是DiDjAkAl,该元素表示i,j输出的偏导数,k,l输入。[5,6],#shape = (2x4) #shape = (2x3) 所以基本上我的问题是
如何
找到点积的
雅可比
浏览 99
提问于2020-04-03
得票数 1
回答已采纳
1
回答
在
pytorch
中,和的梯度是否等于神经网络的梯度之和?
、
、
、
假设我有下面的代码,我想
计算
L的
雅可比矩阵
,这是由
Pytorch
中的神经网络做出的预测,L的大小为nx1,其中n是小批量样本的数量。为了避免L (n个条目)的每个条目的for循环来
计算
小批量中每个样本的雅可比,我发现一些代码只是将神经网络(L)的n个预测相对于输入求和,然后
计算
和的梯度。首先,我不能理解为什么
pytorch
架构中每个样本的梯度和的和是相同的。其次,我同时尝试了sum和for循环,结果出现了分歧。这可能是由于数值近似,还是因为总和没有意义?
浏览 26
提问于2020-09-27
得票数 2
回答已采纳
1
回答
用
PyTorch
计算
二阶
梯度
、
在
PyTorch
中,有两种
计算
第二梯度的方法。第一种方法是使用torch.autograd.grad函数,第二种方法是使用backward函数。= torch.pow(x, 2) # y=x**2print(x.grad) print(x.grad) 在
计算
第一个梯度时,我使用create_graph=True来确保我们可以使用反向比例方法来
计算
第二个梯度。
浏览 68
提问于2021-05-18
得票数 1
1
回答
使用本征库
计算
雅可比
我希望能够使用Eigen C++库
计算
雅可比矩阵
,但我找不到任何有关
如何
执行此操作的文档。在Eigen库中有没有等价的函数?
浏览 1
提问于2016-06-06
得票数 1
1
回答
如何
使用Tensorflow紧急执行来
计算
展开的RNN状态的
雅可比矩阵
如果我们将展开的RNN表示如下
如何
计算
final_state相对于initial_state的
雅可比矩阵
浏览 1
提问于2018-01-24
得票数 0
1
回答
Tensorflow中的Softmax Jacobian
、
、
我想要
计算
批次中每个样品相对于a的y
雅可比矩阵
,它的维度是batch_size by output_dim by output_dim。现在,在数学上,当i != j时,
雅可比矩阵
(dy/da)_{i,j} = -y_i y_j,否则,(dy/da)_{i,i} = y_i (1 - y_i)。我想知道
如何
计算
softmax相对于其在TensorFlow中的输入的
雅可比矩阵
?我知道tf.gradients将
计算
标量相对于张量的梯度,所以我认为在Ten
浏览 5
提问于2017-01-25
得票数 3
回答已采纳
2
回答
PyTorch
最有效的雅可比/海森
计算
、
、
、
、
我正在寻找通过
Pytorch
获得函数的
雅可比矩阵
的最有效的方法,到目前为止我已经提出了以下解决方案: # Setup return torch.stack((X.powJacobian(func,X)>>> Output: 0.001 s 由于在第一个解决方案中使用循环与在第二个解决方案中使用循环似乎没有太大区别,所以我想问一下,在
pytorch
中是否还有更快的方法来
计算
雅可比。我的另一个问题也是关于什么可能是
计算
黑森系
浏览 127
提问于2019-06-06
得票数 5
2
回答
pytorch
中的高阶梯度
、
、
、
我在
pytorch
中实现了下面的Jacobian函数。除非我弄错了,否则它会
计算
任何张量的Jacobian。fj = torch.cat(fs, dim=0) return fjtry: grad = ag.grad(f[tuple(f
浏览 2
提问于2018-05-14
得票数 12
1
回答
如何
获得将外力映射到广义力的矩阵?
、
)) right_foot_contact_force = plant.AddForceElement(plant.GetModelInstanceByName("r_foot")) 然而,我不太确定
如何
继续获得矩阵我怀疑我将需要使用CalcForceElementsContribution(),但不知道
如何
利用生成的MultibodyForce来获得矩阵φ。
浏览 31
提问于2020-06-28
得票数 3
回答已采纳
2
回答
人工神经网络的
雅可比矩阵
计算
、
、
、
实现的关键是
计算
雅可比矩阵
。我花了几个小时研究这个话题,但我不知道
如何
精确地
计算
它。 在神经网络方面,F和x是什么?
浏览 0
提问于2014-10-01
得票数 7
1
回答
PyTorch
二阶
导数处处为零
我正在做一个定制的损失函数,它要求我
计算
一个神经网络中关于它的输入的恒河矩阵的轨迹。 在
PyTorch
中,我尝试了以下几种方法:d = grad(u, x我是否应该将
计算
看作是从u映射到R^n到R^n的映射,n是批处理的大小? 任何帮助都是非常感谢的!
浏览 0
提问于2022-03-04
得票数 1
回答已采纳
1
回答
在MATLAB中每次迭代fsolve之间运行一个函数
、
、
我想做的是,在评估成本函数的
雅可比矩阵
的情况下,分别执行最近网格中心的分配更新。我相信这将允许使用高斯-牛顿算法,并显著提高算法的速度。
浏览 4
提问于2011-04-05
得票数 2
回答已采纳
2
回答
线性时间自动微分向量-雅可比乘积?
、
、
、
我对自动微分的内部工作原理还很陌生,我读过一些论文和幻灯片,它们指出,使用自动微分可以在线性时间内
计算
向量雅可比乘积。专门写的:可以对O(N)中的任何e进行
计算
。
雅可比矩阵
是N-by-N。我认为它是N^2,但我不完全理解自动微分
如何
降低时间复杂度。
浏览 14
提问于2020-04-28
得票数 0
2
回答
通过
计算
Jacobian有效利用
PyTorch
的张量自梯度
、
在我以前的中,我发现了
如何
使用
PyTorch
的自动梯度和张量:from torch.autograd import gradimporttorch.diagonal(dx, 3, -1), 0)[0] #4th vector>>> 问题是grad只知道
如何
从标量张量(我的网络输出不是)传播梯度,这就是为什么我必须
计算
Jacobian。但是,由于我的矩
浏览 5
提问于2021-05-10
得票数 6
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券