腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7167)
视频
沙龙
1
回答
在
PyTorch
中
使用
requires_grad
冻结
图层
与
不向
optim
传递
参数
的
区别
、
我想
冻结
编码器
的
参数
以进行训练,因此只有解码器进行训练。我可以
使用
以下命令来完成此操作: # assuming it's a single layer called 'encoder' model.encoder.weights.data.requers_grad= False 或者,我可以只将解码器
的
参数
传递
给优化器。
浏览 49
提问于2021-08-04
得票数 1
回答已采纳
2
回答
如何在不改变卷积层权重
的
情况下更新分类层
、
、
我有一个CNN,里面有很多令人费解
的
层次。对于每一个卷积层,我都附加了一个分类器,以检查中间层
的
输出。
在
每个分类器产生损失后,我想更新分类器
的
权重,而不触及卷积层
的
权重。然而,我
的
分类器
的
形状是: nn.Linear(int(feature_map * input_shape[1] *True), nn.Linear(100, self.nu
浏览 6
提问于2021-01-22
得票数 0
回答已采纳
1
回答
叶节点
的
requires_grad
关系
、
来自 这里
的
叶节点是什么意思?叶节点仅仅是输入节点吗?如果它只能在叶节点上改变,那我怎么能
冻结
层呢?
浏览 3
提问于2017-07-04
得票数 6
回答已采纳
2
回答
model.train( False )
与
required_grad =False
的
区别
、
、
我
使用
Pytorch
库,我正在寻找一种方法使我
的
模型
中
的
重量和偏差
冻结
。model.train(False) 有什么不同(如果有),我应该
使用
哪一个
冻结
我
的
模型的当前状态
浏览 5
提问于2020-08-24
得票数 4
回答已采纳
6
回答
loss.backward()和optimizer.step()之间
的
连接
、
、
、
optimizer和loss之间
的
显式连接在哪里?优化器如何知道
在
没有调用
的
情况下从哪里得到损失
的
梯度,比如这个optimizer.step(loss)当我将损失最小化时,我不必将梯度
传递
给优化器。
浏览 0
提问于2018-12-30
得票数 142
回答已采纳
1
回答
如何将火炬损耗
与
模型
参数
连接起来?
、
、
、
、
我知道
在
PyTorch
中
,优化器是通过
在
训练循环中,我们必须向后执行loss.backward()但是,损失是如何
与
模型
参数
相关联
的
呢?因为我们只定义优化器和模型之间
的
连接,而从不定义损失和模型之间
的
关联。当我们执行loss.backward()时,
浏览 8
提问于2022-08-20
得票数 0
1
回答
如何在
PyTorch
中
的
前向
传递
中
使用
优化器
、
、
、
我希望
在
自定义函数
的
前通过中
使用
优化器,但它不起作用。= lambda y_star: (input + weight - y_star)**2 optimizer = torch.
optim
.Adam此外,我已经测试了优化之外
的
前进和它
的
工作,所以我想这是什么
与
上下文?根据文档“跟踪历史
的
张量
参数
(即
使用
requires_grad</e
浏览 3
提问于2020-02-27
得票数 0
1
回答
Pytorch
模型不更新权重
、
我试图用
pytorch
解决CartPole问题,但是
在
几次迭代之后,
参数
没有更新。 self.optimizer = torch.
optim
.Adamstate, q_values): output = sel
浏览 3
提问于2019-10-10
得票数 0
3
回答
SGD优化器自定义
参数
、
、
我正在练习
使用
Pytorch
,并尝试实现一个简单
的
线性模型。b = torch.randn(1,
requires_grad
=True) 我想
使用
梯度下降
的
a和b,并更新他们作为模型列车。sgd = torch.
optim
.SGD([a, b], lr=0.001, momentum=0.9, we
浏览 7
提问于2022-08-31
得票数 0
回答已采纳
1
回答
如何在
Pytorch
中
执行优化时应用变量
的
界?
、
、
、
我正在尝试
使用
Pytorch
进行非凸优化,试图最大限度地实现我
的
目标(
在
SGD中最小化)。我希望绑定我
的
因变量x> 0,并且我
的
x值之和小于1000。我认为我
的
惩罚是正确
的
,以坡道惩罚
的
形式实现,但我正在
与
x变量
的
界限斗争。
在
Pytorch
中
,您可以
使用
clamp设置边界,但在这种情况下似乎不合适。我认为这是因为
o
浏览 5
提问于2019-12-05
得票数 3
1
回答
在
Pytorch
中注册模型
参数
的
正确方法
、
我尝试
在
Pytorch
中
定义一个简单
的
模型。def forward(self, x):for _ in range(5): nll = model(torch.tens
浏览 50
提问于2020-07-23
得票数 2
回答已采纳
1
回答
pytorch
中
load_state_dict
与
nn.Parameter加载模型
参数
的
差异
、
、
当我想要将部分预训练
的
模型
参数
分配给
在
新
的
PyTorch
模型
中
定义
的
另一个模块时,我
使用
两种不同
的
方法得到了两种不同
的
输出。net模块
中
的
classifier。这项任务
使用
了两种不同
的
方法。= nn.Parameter(params['classifier.3.bias'],
requires_grad
=F
浏览 87
提问于2020-12-03
得票数 1
1
回答
发电机
的
优化器也训练鉴别器吗?
在学习GANs时,我注意到代码示例显示了以下模式:d_
optim
.zero_grad() d_loss = d_loss_fn()g_
optim
.zero_grad() g_loss = g_loss_fn(fake_pred, torch.ones))编写
的
,目的是防止d_
optim
.step()训练g,但是对于发电机<e
浏览 4
提问于2020-03-20
得票数 2
回答已采纳
1
回答
如何在
Pytorch
中
实现JSD损失上限?
、
、
我正在尝试用
pytorch
来“复制”,而且我还是个新手。我现在关心
的
是复制L_G (等式)。7第3页),下面是我当前
的
代码: super(JSDLoss,self).f_num_features = f_real.size()[1] identity = autograd.Variable(torch.eye(f_num_features)*0.1,
requires_grad
但是,我怀疑这
浏览 4
提问于2017-12-13
得票数 3
1
回答
.data
在
Pytorch
1.3稳定版
中
仍然有用吗?它
的
意义是什么?
、
.data
在
Pytorch
1.3稳定版
中
还在
使用
吗?如果是,你能和我分享一下参考资料吗?谢谢。t.data
浏览 6
提问于2019-10-23
得票数 0
回答已采纳
1
回答
net.zero_grad() vs
optim
.zero_grad()
、
他们提到
在
训练
参数
梯度为零时需要包括
optim
.zero_grad()。我
的
问题是:我可以做同样
的
net.zero_grad(),这会有同样
的
效果吗?还是有必要做
optim
.zero_grad()。换句话说,做
optim
.zero_grad()和net.zero_grad()有什么
区别
。我问是因为他们
使用
net.zero_grad(),这是我第一次看到,这是一种强化学习算法
的
实现,在这种算法
浏览 1
提问于2020-05-19
得票数 15
回答已采纳
1
回答
用Tensorflow实现随机神经网络?
、
、
、
、
基于以下文献
的
具有随机权值
的
神经网络(NNRW) 本质上,其思想是,隐藏层是随机固定
的
,只对输出层进行优化。(导致一个简单
的
最小二乘解)。我很熟悉
在
keras中
使用
Sequential来创建模型,虽然我不确定我将如何“修复”隐藏层,并且只关注优化输出层。我
的
最后一次尝试是用NumPy手动编写网络代码,但我想问是否有人在Tensorflow
中
对此有任何想法
浏览 0
提问于2022-04-06
得票数 0
3
回答
如何剥离一个预先训练
的
网络,并添加一些
图层
使用
火把闪电?
、
、
我试图将传输学习用于图像分割任务,我
的
计划是
使用
预训练模型(例如VGG16)
的
前几层作为编码器,然后添加我自己
的
解码器。因此,我可以通过打印来加载模型并查看结构:print(model)ResNet( (conv1): Conv2d(3, 64, kernel_si
浏览 5
提问于2021-02-01
得票数 0
2
回答
如何在
pytorch
中
连接2种电焊枪模型并使其第一种不可训练
、
、
我有两个网络,我需要连接我
的
整个模型。然而,我
的
第一个模型是预先培训,我需要使它不能训练时,培训完全模式。如何在
PyTorch
中
实现这一点。PATH)) x = torch.randn(1, 10)基本上,在这里,我想加载预先训练
的
modelA
浏览 0
提问于2020-12-09
得票数 4
回答已采纳
2
回答
如何计算简单线性回归模型
的
梯度?
、
、
、
、
我正在
使用
pytorch
,并试图了解一个简单
的
线性回归模型是如何工作
的
。我
使用
的
是一个简单
的
LinearRegressionModel类: def __init__(self, input_dimcriterion = nn.MSELoss() 最后,
浏览 3
提问于2017-09-18
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch,灵活的Python深度学习框架!
pytorch深度学习和自然语言处理入门
手把手教你用PyTorch实现图像描述
手把手教 深度学习库PyTorch
一个简单而强大的深度学习库—PyTorch
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券