腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
是否
可以
使用
Autograd
来
计算
神经网络
输出
相对于
其
输入
之一
的
导数
?
python
、
tensorflow
、
neural-network
、
autograd
我有一个
神经网络
模型,它为大约9个
输入
X
输出
一个大小约为4000
的
向量Y。我需要用一个或两个
输入
X_1或X_2
计算
Y
的
输出
的
偏
导数
。我已经有了这些
导数
,并且我已经为X_1和X_2训练了两个不同
的
神经网络
。它做得很好,但问题是
导数
没有
计算
Y
的
神经网络
准确。我希望有一种方法
可以
从
浏览 18
提问于2019-02-11
得票数 0
1
回答
PyTorch中高效
的
批处理
导数
操作
python
、
pytorch
我正在
使用
Pytorch实现一个具有(比方说)5个
输入
和2个
输出
的
神经网络
def __init__(self): super(NN
输出
相对于
输入
向量
的
一个元素(假设是第5个元素)
的
导数
。我知道我
可以
使用
torch.
autograd
.grad
计算
输
浏览 3
提问于2020-06-19
得票数 0
2
回答
如何
计算
神经网络
中
输入
的
权重
neural-network
在
神经网络
完全训练后(假设是一个正常
的
前馈网络),
是否
有一种方法
来
计算
一个
输入
相对于
最终
输出
的
权重?请注意,我不是在谈论
输入
相对于
一个神经元
的
权重(该值应由
神经网络
在训练过程中
计算
和调整)。例如,如果我有3个
输入
x1,x2和x3,而我有一个
输出
y。在训练网络之后,我能知道x1对y
的
影响有多大吗
浏览 3
提问于2012-11-27
得票数 3
1
回答
如何
使用
PyTorch
计算
输出
的
梯度w.r.t。
神经网络
中
的
输入
?
neural-network
、
gradient
、
pytorch
我有一个受过训练
的
网络。我想要
计算
输出
的
梯度。
输入
。通过查询torch.
autograd
.grad文档,PyTorch可能很有用。因此,我
使用
以下代码: y_test = model(x_test)model是
神经网络
。x_test是
浏览 1
提问于2018-08-03
得票数 7
1
回答
在PyTorch函数中
使用
PyTorch模块
的
正确方法是什么?
python
、
neural-network
、
pytorch
、
automatic-differentiation
我们有一个自定义
的
torch.
autograd
.Function z(x, t),它以一种不适合直接自动微分
的
方式
计算
输出
y,并
计算
了操作
相对于
其
输入
x和t
的
雅可比矩阵,因此我们
可以
实现backward但是,该操作涉及对
神经网络
进行几次内部调用,我们目前已将其实现为包装在net ( torch.nn.Module )中
的
torch.nn.Linear对象堆栈。从数
浏览 17
提问于2020-10-25
得票数 1
1
回答
在pytorch中
使用
参数偏
导数
进行训练
python
、
pytorch
给定一个具有权重θ和
输入
x
的
神经网络
,我感兴趣
的
是
计算
神经网络
输出
w.r.t
的
偏
导数
。x,这样我就
可以
在训练权重θ时
使用
结果,该损失取决于
输出
和
输出
的
偏
导数
。我想出了如何
计算
下面的偏
导数
this post。我还发现this post这就解释了如何
使用
渐近来实现类似的东西,然而
浏览 57
提问于2021-02-24
得票数 1
回答已采纳
1
回答
神经网络
反向传播
neural-network
我正在尝试理解在人工
神经网络
中
使用
的
误差反向传播算法。然而,理
浏览 1
提问于2013-06-13
得票数 2
回答已采纳
1
回答
内
导数
用
autograd
.grad
的
内部工作
python
、
pytorch
、
autograd
、
automatic-differentiation
不出所料,grad=4.0=2x,但是grad2=12.0=6x,我不明白它是从哪里来
的
。似乎3
来
自于我所拥有的表达式,但它不是平方
的
,而2
来
自于传统
的
导数
。有人能帮我弄明白为什么会发生这种事吗?此外,存储梯度
的
计算
图
可以
追溯到多远?L(theta) (这里
的
导数
是
相对于
theta)
的
数量感兴趣。希望,我所拥有的片段与我在第二段中描述
的
内容有着很
浏览 12
提问于2022-08-01
得票数 0
回答已采纳
1
回答
混合部分脱皮w.r.t.焦火炬张量
python
、
pytorch
、
derivative
、
jax
问题:示例 给定n由n个对称矩阵X,Y和矩阵函数Z(X, Y) = torch.mm(X.mm(X), Y)
计算
d(dZ/dX)/dY。
的
每个元素上来
计算
导数
,但是这种方法是不正确
的
,因为它给出了d( X ^2)/dX =X+ 2*D,其中D是对角线矩阵,
其
对角线值为X。对我来说,torch有能力构造
计算
图,但不能将张量作为获取张量<em
浏览 7
提问于2022-08-02
得票数 0
1
回答
在MatLab中有什么自动
的
方法
来
计算
输入
的
CNN
的
梯度吗?
matlab
、
deep-learning
、
conv-neural-network
、
automatic-differentiation
我用MatLab
的
机器学习工具箱训练了一个浅浅
的
CNN。CNN
的
输入
是图像,
输出
也是图像: f(x) = y,其中x是
输入
图像,y是
输出
图像。我需要自动
计算
CNN
相对于
输入
x
的
梯度:到目前为止,我尝试了 函数:但这
计算
性能
的
导数
相对于
网络
的
权重和偏差。上述版本
计算
输入
图像<e
浏览 4
提问于2021-03-02
得票数 0
1
回答
设计一个
神经网络
需要多少
神经网络
理论?
machine-learning
、
neural-network
、
machine-learning-model
根据问题
的
性质设置
的
其他参数包括损失指数(如何
计算
误差和
是否
应该有正则化项)、
是否
存在标度/无标度、边界或条件,以及训练算法(如拟牛顿法)。我感兴趣
的
特殊类型
的
问题是
使用
神经网络
计算
未知函数(具有未知
的
复杂性),即
输入
和
输出
整数(
相对于
连续值),给定大量
的
输入
和
输出
。 示例函数接受4
浏览 0
提问于2018-06-16
得票数 1
回答已采纳
3
回答
第二部分弹性反向传播
神经网络
algorithm
、
artificial-intelligence
、
neural-network
、
backpropagation
这是的后续问题.对于给定
的
神经元,我不清楚如何取其误差
的
偏
导数
和
其
权重
的
偏
导数
。 从这个中
可以
清楚地看到,传播是如何工作
的
(尽管我正在处理弹性传播)。对于前馈
神经网络
,我们需要1)在
神经网络
中向前移动,触发神经元,2)从
输出
层神经元中
计算
出总误差。然后向后移动,按神经元中
的
每个权重来传递该误差,然后再次向前,更新每个神经元
的
权重。尽管如此,这些都
浏览 1
提问于2012-08-27
得票数 7
1
回答
在调用反向()之前,在丢失时应用非火炬函数?
python
、
pytorch
、
loss-function
在
计算
渐变之前,我想在最终
计算
的
损失上应用一个自定义
的
非torch函数(调用want ())。例如,将丢失向量上
的
torch.mean()替换为自定义
的
pythonic非火炬均值函数。但是这样做会破坏
计算
图。我不能用火炬操作员重写定制
的
均值函数,我对如何做到这一点感到困惑。有什么建议吗?
浏览 12
提问于2022-01-24
得票数 1
回答已采纳
1
回答
用负采样实现word2vec
machine-learning
、
nlp
、
neural-network
、
word2vec
、
word-embedding
我正在尝试实现word2vec
的
正向和反向传播,
使用
跳过图.我对
神经网络
很陌生,但据我所知,它是这样
的
: 我们以某种方式比较了第4步之后得到
的
输出
,并
计算
了误差
的
导数
(目标
输出
)
相对于
浏览 3
提问于2016-05-07
得票数 3
1
回答
神经网络
梯度
计算
python-3.x
、
machine-learning
、
tensorflow
、
neural-network
、
adversarial-machines
换句话说,这将告诉我所需
的
方向,使图像看起来更像一个数字2或3,即使它是一个7。...and,这基本上告诉我们,
神经网络
在这一点上要寻找什么样
的
形状。从函数compute_gradient
的
参数中,我
可以
看到您为它提供了一个图像和一个标签数组,其中目标标签
的
值设置为1。 但我看不出
浏览 3
提问于2017-03-17
得票数 0
回答已采纳
1
回答
如何利用PyTorch
计算
偏
导数
?
python
、
machine-learning
、
pytorch
我想用PyTorch得到
输出
和
输入
之间
的
偏
导数
。假设我有一个函数Y = 5*x1^4 + 3*x2^3 + 7*x1^2 + 9*x2 - 5,并且我训练一个网络
来
替换这个函数,那么我
使用
自动梯度
来
计算
dYdx1, dYdx2。pkl')y = net(x) grad_c = torch.
aut
浏览 0
提问于2018-07-24
得票数 2
1
回答
自动标枪能处理同一模块中重复
使用
的
图层吗?
python
、
neural-network
、
pytorch
、
autograd
我在一个layer中有一个图层nn.Module,在一个forward步骤中
使用
它两次或更多次。这个layer
的
输出
稍后会
输入
到同一个layer中。毕道尔
的
autograd
能正确
计算
这一层
的
权重
的
梯度吗?由于损失被选择为MSE,因此损失
的
公式为手工
计算
,我们有 dw/dx = 2*((w^2)*input_x-label)*(2*w*inp
浏览 4
提问于2020-03-08
得票数 6
回答已采纳
1
回答
TensorFlow / PyTorch:外部测量
的
损耗梯度
tensorflow
、
neural-network
、
pytorch
、
gradient
、
backpropagation
我有一个系统,它由一个
神经网络
组成,它
的
输出
被
输入
到一个未知
的
非线性函数F中,例如一些硬件。
其
思想是将
神经网络
训练为未知非线性函数F
的
逆F^(-1),这意味着损失L是在F
的
输出
处
计算
的
,但是由于F
的
梯度不知道,反传播不能直接用于
计算
梯度和更新NN权值。在
计算
TensorFlow或PyTorch中
的
梯度时,<em
浏览 2
提问于2020-01-16
得票数 1
2
回答
Pytorch:
输出
w.r.t参数
的
渐变
python
、
neural-network
、
pytorch
、
gradient-descent
、
autograd
我感兴趣
的
是找出
神经网络
输出
相对于
参数(权重和偏差)
的
梯度。 更具体地说,假设我有如下
的
神经网络
结构6,4,3,1。
输入
样本大小为20。我感兴趣
的
是找出
神经网络
输出
的
梯度w.r.t权重(和偏差),如果我没有弄错的话,在这种情况下应该是47。在文献中,这种梯度有时被称为Weight_Jacobian。我在Jupyter Notebook上
的
Python 3.6上<e
浏览 4
提问于2018-05-04
得票数 4
1
回答
当
使用
Lambda层作为
输出
时,如何获得
相对于
参数
的
梯度
python-3.x
、
keras
我正在尝试实现一个具有一个隐藏层
的
神经网络
,它
可以
表示PDE
的
解(假设是拉普拉斯方程)。因此,目标函数取决于
神经网络
的
梯度,而不是
其
输入
。 现在,我已经
使用
Lambda层实现了二阶
导数
的
计算
。然而,当我试图
计算
输出
相对于
模型参数
的
梯度时,我得到了一个错误。为什么Keras不能
计算
可训练参数<e
浏览 22
提问于2019-03-31
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
多层网络的后向传播
揭秘反向传播算法,原理介绍与理解
Pytorch 学习引发的思考
一文彻底搞懂BP算法:原理推导+数据演示+项目实战
如何在Python中从0到1构建自己的神经网络
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券