腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(143)
视频
沙龙
1
回答
如
何在
Pytorch
中
进行
backprop
(
autograd.backward
(
loss
)
vs
loss.backward
())
以及
在
哪里
设置
requires_grad
=
True
?
、
、
、
我已经使用
Pytorch
有一段时间了。我对
backprop
的一个问题是: 假设我们有一个神经网络的损失函数。对于
backprop
,我已经看到了两个不同的版本。一个类似于: optimizer.zero_grad()optimizer.step() 另一个是这样的: optimizer.zero_grad()
loss.backward
() optimizer.step() 我应该使用哪一个?作为最后一个问题,我们是否需要为网络的每一层参数指
浏览 26
提问于2019-03-13
得票数 1
回答已采纳
1
回答
为什么我的参数不改变,它的梯度0?
、
我正在建立一个非常简单的模型来学习泊松模型
中
的参数,我不知道我在
哪里
出错。我正在使用
pytorch
.nn并执行以下操作。=
True
)
loss
=
lo
浏览 2
提问于2021-02-26
得票数 1
6
回答
loss.backward
()和optimizer.step()之间的连接
、
、
、
optimizer和
loss
之间的显式连接在
哪里
?优化器如何知道
在
没有调用的情况下从
哪里
得到损失的梯度,比如这个optimizer.step(
loss
)当我将损失最小化时,我不必将梯度传递给优化器。
loss.backward
() # Back Propagation optimizer.step() # Gardient Descent
浏览 0
提问于2018-12-30
得票数 142
回答已采纳
4
回答
毕道尔,梯度参数是什么?
、
、
、
、
我正在阅读
PyTorch
的文档,并找到了一个他们编写y.backward(gradients) print
浏览 6
提问于2017-04-17
得票数 134
回答已采纳
6
回答
为什么我们需要在zero_grad()
中
调用
PyTorch
?
、
、
、
、
为什么
在
培训期间需要调用?| Sets gradients of all model parameters to zero.
浏览 9
提问于2017-12-28
得票数 289
回答已采纳
1
回答
如何用
pytorch
评估和获得前馈神经网络的精度
、
、
、
、
我开始使用
Pytorch
,目前正在做一个项目,我正在使用一个简单的前馈神经网络
进行
线性回归。问题是,我
在
Pytorch
中
找不到任何可以让我获得Keras或SKlearn中线性回归模型的准确性的东西。
在
keras
中
,只需在编译函数
中
设置
metrics=["accuracy"]即可。我
在
Pytorch
的文档和官方网站上搜索了一下,但什么也没找到。这个API似乎不存在于
Pyto
浏览 16
提问于2019-10-06
得票数 1
1
回答
在
不同的机器上训练自动编码器
、
、
、
自动编码器必须使用真实的物理信道
进行
训练,因此需要在两台不同的计算机(发送器和接收器计算机)之间执行反向传播。我的问题是,如
何在
接收端启动反向传播过程,并在发送端完成它?为了让这个问题简单一点,如果你可以帮助我
在
两个不同的文件
中
执行
backprop
,这可能足以让我根据需要扩展它。假设编码器由一个文件定义,而解码器由另一个文件定义。我如
何在
这两个独立的文件
中
执行
backprop
? 我愿意使用
pytorch
或tensorflow
中
浏览 13
提问于2019-10-15
得票数 1
2
回答
理解
PyTorch
中
的累积梯度
、
、
、
我试图理解
PyTorch
中
梯度积累的内部工作原理。我的问题有点与这两点有关:
loss
=
loss
.mean() # MSE
loss
loss.backward
() # backward,而
loss
张
浏览 4
提问于2020-05-28
得票数 23
回答已采纳
3
回答
pytorch
nn.Module推理
、
我打算学习
Pytorch
。然而,在这个阶段,我想问一个问题,这样我就可以理解我正在阅读的一些代码class My_model(nn.Module)tasks_output, other = my_model(data)
在
pytorch
中
,推理应该如何
进行
?(为了参考,我说的是my_model
设置</
浏览 0
提问于2021-08-04
得票数 0
3
回答
如果我们将一个可训练参数和一个不可训练参数组合在一起,那么原始的可训练参数是否是可训练的?
、
、
、
、
我有两个网,我用某种奇特的方式组合了它们的参数,只使用了
pytorch
操作。我将结果存储
在
第三个网络
中
,它的参数
设置
为non-trainable。然后我继续并通过这个新的网络传递数据。= Op( not_trainable_net.W, trainable_net.W )output = placeholder_net(input) 我担心,由于占位符网的参数被
设置
为或者,当您将可训练的参数与不可训练的param组合在一起时,结果是什么(然后将其
设置
为不可训练的位置)
浏览 0
提问于2018-05-02
得票数 11
1
回答
如何修正损失函数/软件最大值
中
的尺寸误差?
、
我正在为XOR
在
PyTorch
中
实现一个逻辑回归(我不认为它能很好地工作,这只是一个演示)。由于某些原因,我得到了一个错误'IndexError:维度超出范围(预期
在
-1,0,但得到1)‘。我不清楚这是从
哪里
来的。
在
训练过程
中
,错误指向log_softmax。=False) optimizer.zero_
浏览 6
提问于2020-04-30
得票数 1
回答已采纳
1
回答
在
移相器
中
创建自定义渐变下降
、
、
、
、
我试图使用
PyTorch
自动梯度来实现我自己的批处理梯度下降算法。我想要创建一个简单的单层神经网络,其线性激活函数和均方误差作为损失函数。我似乎无法理解
在
反向传递
中
到底发生了什么,
以及
PyTorch
如何理解我的输出。我编写了一个类,指定前通过
中
的线性函数,
在
反向传递
中
,我计算了每个变量的梯度。当我运行一个简单的梯度下降算法时,我没有错误,但是MSE只
在
第一次迭代中下降,然后,它继续上升。这使我相信,我犯了一个错误,但我不确定,在<em
浏览 0
提问于2021-08-02
得票数 1
回答已采纳
2
回答
Pytorch
如何得到两次损失函数的梯度
、
在
tensorflow
中
,这部分(获取dF(X)/dX)可以像下面这样编码: grad = tf.stop_gradient(grad(self, batch,
loss
, embedding, y):
loss.backward
(retain_graph,所以我
在
loss.backward
中</
浏览 1
提问于2018-07-29
得票数 4
1
回答
GPU
在
Google对撞机上的执行速度比CPU慢
、
、
CPU
在
13秒左右。(我取消评论/评论适当的行来做测试)。有人能看到我的代码或火把安装有什么问题吗?(我已经检查了GPU是否可用,GPU上是否有足够的内存可用。pip install -q http://download.
pytorch
.org/whl/{accelerator}/torch-0.4.0-{platform}-linux_x86_64.whl=
True
) w2 = torch.randn(H, D_out, device=device, dtype=dtype, <
浏览 0
提问于2018-07-04
得票数 5
回答已采纳
1
回答
运行时错误:找到一个可以更改梯度计算所需变量的就地操作。
、
、
、
、
我正在
PyTorch
中
训练普通的RNN来学习隐藏动态
中
的变化。我试图按照给定的提示
在
backward()
中
设置
backward(),但没有取得任何进展。
loss
loss
= nn.MSELoss()(pred_y,
true</em
浏览 2
提问于2021-05-22
得票数 0
2
回答
当发现模型的准确性时,会不会记录下梯度?
、
、
、
、
我开始学习
PyTorch
,我对一些东西感到困惑。据我所知,如果我们将.requires_grad_()
设置
为我们的参数,那么找到这些参数的梯度所需的计算将被记录下来。这样,我们就可以
进行
梯度下降。然而,梯度值将是
在
以前的梯度值之上添加,因此
在
执行梯度下降步骤之后,我们应该使用param.grad.zero_()重新
设置
梯度,其中param是一个权重或偏倚项。此外,我还将我的培训数据放在一个名为DataLoader的train_dl
中
,并将我的验证数据放在valid_dl
浏览 9
提问于2022-03-20
得票数 1
回答已采纳
1
回答
变压器和
PyTorch
的重量和偏差?
、
、
、
、
我正在培训一个NLP模式
在
工作(电子商务SEO)应用BERT变异葡萄牙语(BERTimbau)通过Transformers拥抱脸。--我正在使用木星实验室
在
GCP上使用VM
进行
训练。我知道我可以对
PyTorch
和变形金刚使用权数和偏差。但我不知道如何使用run_glue.py来
设置</
浏览 2
提问于2021-09-12
得票数 0
2
回答
在
更高级的
Pytorch
库
中
,copy_initial_weights文档意味着什么?
、
、
我试图使用高级库
进行
元学习,而我对copy_initial_weights的含义有问题。医生说: 此外,“展开修补模块”对我来说没有意义。我们通常展开由fo
浏览 15
提问于2020-02-20
得票数 14
1
回答
基于编码器的迁移学习视频合成
、
、
、
、
我
在
Pytorch
中
遇到了一个非常奇怪的错误,在这个错误
中
,我使用以下模型合成视频。我正在尝试将迁移学习仅应用于编码器。为此,我使用
requires_grad
= False冻结了生成器的权重,并对编码器
进行
了相反的操作。ipython-input-7-73fe2d39b929> in on_wl_clicked(b) 88 ---> 89
loss.backward
0
浏览 17
提问于2019-10-11
得票数 0
1
回答
用于时间序列预测失败学习的LSTM (
PyTorch
)
、
、
、
、
我目前正在建立一个LSTM网络,用
PyTorch
来预测时间序列数据.我试着分享所有我认为会有帮助的代码片段,但是如果还有什么我可以提供的,请随时告诉我。我
在
文章末尾添加了一些关于潜在问题的评论。NumPy数组转换为
PyTorch
张量之后,我使用
PyTorch
提供的TensorDataset和DataLoader类创建了可迭代数据集。
loss
=
loss
_fn(y, yhat)
loss.backward<
浏览 3
提问于2021-01-06
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从头开始了解PyTorch的简单实现
手把手教你用PyTorch实现图像描述
对比PyTorch和TensorFlow的自动差异和动态子类化模型
Pytorch图像分类从模型自定义到测试
如何为您的机器学习问题选择正确的预训练模型
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券