腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
有关
闪电战
教程
中
使用
的
反向
参数
的
pytorch
问题
关于backward()
的
pytorch
问题
。在下面复制和粘贴
的
pytorch
中
,它们将向量[0.1, 1.0, 0.0001]传递给backward()。我可以直观地猜测为什么传入
的
向量[0.1, 1.0, 0.0001]形状是3,但我不明白值0.1,1.0,0.0001从哪里来。我看过
的
另一个
教程
中
的
向后向量传递是这样完成
的
:L.backward(torch.ones(L.s
浏览 8
提问于2019-10-29
得票数 0
回答已采纳
1
回答
在火炬
中
截断时间
的
反向
传播(BPTT)
、
、
在
pytorch
中
,我训练RNN/GRU/LSTM网络,方法是启动
反向
传播(通过时间):当序列很长时,我希望通过时间进行截断
的
反向
传播,而不是
使用
整个序列
的
时间进行正常
的
反向
传播但是,我在
Pytorch
中
找不到任何
参数
或函数来设置截断
的
BPTT。我错过了吗?我应该自己在毕道尔编码吗?
浏览 3
提问于2018-12-24
得票数 6
1
回答
PyTorch
丢失()和
反向
传播是否理解lambda层?
、
、
、
我一直在
使用
这里提供
的
代码
的
resnet56模型:。我注意到这个实现与许多其他在线可用
的
ResNet示例不同,我想知道
PyTorch
使用
损耗()
的
反向
传播算法是否可以解释所提供
的
代码
中
的
lambda层和快捷方式。如果是这样的话,是否有人能深入了解
PyTorch
如何能够为
反向
传播解释lambda层(例如,
PyTorch
如何知道如何区分该层
的
浏览 4
提问于2020-01-19
得票数 1
回答已采纳
1
回答
pytorch
如何实现从输出层到输入层
的
反向
传播
假设我们已经训练了一个网络模型,我想从输出层
反向
传播到输入层(而不是第一层),以获得新
的
输入数据。我想知道
pytorch
中
是否有函数或其他现有函数可以实现此函数,我在
pytorch
教程
中
找不到相关函数。
浏览 22
提问于2021-02-03
得票数 0
1
回答
反向
传播
参数
的
正确值
、
为了让我
的
神经网络工作,我在找出正确
的
参数
时遇到了
问题
。我想实现数字识别
使用
Mnist数据集
的
60.000 26x26图像。我还了解到将数据分割成多个“块”是有意义
的
,但我还有几个
问题
:每个块有多少张图像?如何设定学习速度?每个块有多少
反向
传播周期?你知道有用
的
文章吗,我可以在那里得到这样
的
信息?
浏览 0
提问于2018-12-11
得票数 0
回答已采纳
1
回答
如何
使用
pytorch
0.4.1模型初始化
pytorch
0.2.0?
、
、
我遇到了一个
问题
,我在
pytorch
0.4.1
中
训练我
的
模型,但我找不到一个工具来将它转换为caffe模型。如何
使用
init
pytorch
0.2.0
的
pytorch
0.4.1 model 或者如何将
pytorch
0.4.1 model转换为caffe model
浏览 12
提问于2018-09-12
得票数 0
2
回答
Pytorch
:输出w.r.t
参数
的
渐变
、
、
、
、
我在Jupyter Notebook上
的
Python 3.6上
使用
Pytorch
版本0.4.0。代码生成长度为20
的
输出向量。现在,我想找出这个输出向量
的
梯度w.r.t所有的权重(总共47个)。我已经在上阅读了
Pytorch
的
文档。我也看到过类似的
问题
,例如,。但是,我找不到输出向量w.r.t
参数
的
梯度。如果我
使用
Pytorch
函数backward(),它会生成一个错误,如下所示
浏览 4
提问于2018-05-04
得票数 4
1
回答
Drake
中
的
自动微分
我有一个关于Drake
中
自动区分(AD)
的
问题
。如果有人用python为系统编写DAE,Drake如何计算用于优化
的
导数?它在后端是否有AD包,或者它
使用
有限差分。另外,它如何实现四元数表示
的
积分和微分。非常感谢您提前抽出时间。
浏览 3
提问于2021-05-20
得票数 1
1
回答
PyTorch
中
的
Dict支持
、
、
PyTorch
是否支持类似dict
的
对象,通过这些对象我们可以
反向
传播梯度,比如
PyTorch
中
的
张量? 我
的
目标是计算一个大型矩阵
中
的
几个元素(1%)
的
梯度。但是如果我
使用
PyTorch
的
标准张量来存储矩阵,我需要将整个矩阵保存在我
的
GPU
中
,这会导致由于在训练期间可用
的
GPU内存有限而造成
的</em
浏览 6
提问于2022-03-08
得票数 2
1
回答
DNN
参数
子集
的
反向
传播代价
、
、
、
我
使用
pytorch
来评估前馈网络
的
梯度,但只用于与前两层相关
的
参数
子集。由于
反向
传播是逐层进行
的
,我想知道:为什么计算速度快于计算整个网络
的
梯度?
浏览 5
提问于2022-08-23
得票数 1
1
回答
不确定如何在
PyTorch
中
实现一个等式
我所关心
的
问题
是: 而且,我知道在
浏览 0
提问于2019-02-11
得票数 4
回答已采纳
1
回答
在python
中
“变量”是什么意思?这是一个标准
的
功能吗?
、
在我发现
的
一行我看到
的
这个Variable是什么?当我
使用
IDE查找定义时,它会说“没有找到变量
的
定义”,这让我怀疑它是python
中
的
一个标准函数。我显然不能为python搜索“变量”,因为我会得到关于python
中
变量
的
无数定义。有人见过
浏览 1
提问于2020-08-03
得票数 0
回答已采纳
1
回答
如何将火炬损耗与模型
参数
连接起来?
、
、
、
、
我知道在
PyTorch
中
,优化器是通过在训练循环中,我们必须向后执行loss.backward()但是,损失是如何与模型
参数
相关联
的
呢?因为我们只定义优化器和模型之间
的
连接,而从不定义损失和模型之间
的
关联。当我们执行loss.backward()时,
PyTorch
如何知道我们将为我们
的
浏览 8
提问于2022-08-20
得票数 0
4
回答
torch.no_grad在火炬
中
的
用途是什么?
、
我是个新手,开始
使用
这 github代码。我不理解代码"because weights have requires_grad=True, but we don't need to track this in autograd"
中
第60-61行
中
的
注释我知道我们提到
的
变量是requires_grad=True,我们需要这些变量来计算
使用
自梯度
的
梯度,但是成为"tracked by autograd"意味着什么呢?
浏览 0
提问于2018-06-05
得票数 67
回答已采纳
2
回答
loss.backward()与模型
的
适当
参数
有何关系?
、
、
我是
PyTorch
的
新手,我很难理解loss是如何知道如何通过loss.backward()计算梯度
的
?当然,我知道
参数
需要有requires_grad=True,并且我知道它将x.grad设置为适当
的
梯度,以便优化器稍后执行梯度更新。当我有两个不同
的
浏览 2
提问于2019-11-14
得票数 3
1
回答
如何在自动梯度
中
逐个分配方程元素
、
、
我正在尝试实现一个基于自动梯度
的
非线性PDE求解器。和大多数PDE一样,我需要能够在输入向量
的
单个条目中操作,但显然这破坏了自动梯度。我创建了这个简单
的
例子来展示我所面临
的
问题
:def my_equation(x): return eq 谢谢!
浏览 2
提问于2019-12-10
得票数 0
回答已采纳
1
回答
神经网络命名规则
、
、
神经网络有什么标准
的
命名约定吗?我对神经网络
的
编程还很陌生,但我注意到很多
教程
和书籍之间
的
一致性,我想熟悉命名约定,但找不到任何来源。一个例子是'X‘通常是大写
的
,'y’是数据集
的
小写。
浏览 4
提问于2018-01-27
得票数 1
回答已采纳
1
回答
如何在
PyTorch
中
处理验证集?
、
、
、
例如,一个
使用
MNIST数据集,并将所提供
的
大小为60,000
的
培训数据拆分为一个培训集(50,000)和一个验证集(10,000)。所提供
的
大小为10,000
的
测试数据用作测试集。然后,计算梯度,并通过
反向
传播更新权重。loss_function(prediction, label) optimizer.step()据我所知,验证集用于超
参数
调优for parameter in mode
浏览 0
提问于2021-02-03
得票数 0
回答已采纳
2
回答
如何在图像分类
pytorch
中提前停止
、
、
我是
Pytorch
和机器学习
的
新手,我将按照本
教程
中
的
教程
操作,并
使用
我
的
自定义数据集。然后我在这个
教程
中
遇到了同样
的
问题
,但我不知道如何在
pytorch
中提前停止,如果你有更好
的
方法而不创建提前停止进程,请告诉我。
浏览 31
提问于2020-02-13
得票数 2
2
回答
带有dim
的
PyTorch
softmax
、
、
、
[ 0.3200, 0.2914],因此,第一个张量优先于softmax,第二个张量是softmax应用于dim=-1
的
张量
的
结果,第三个张量是softmax应用于具有dim=1
的
张量
的
结果。对于第一个==
的
结果,可以看到相应
的
元素和为1,例如0.4565,0.5435 -> 0.4565 + 0.5435 softmax 1。 第二个softmax
的
结果为1
的
总和是什么?这是
浏览 1
提问于2018-09-26
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Optuna进行PyTorch模型的超参数调优
关于反向传播在Python中应用的入门教程
搞定复杂数据过滤,日期参数插件的使用教程来了
Laravel中Session 的使用问题
Hype中关于触发事件的使用教程
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
实时音视频
活动推荐
运营活动
广告
关闭
领券