腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(330)
视频
沙龙
2
回答
pytorch Network.parameters()缺少1个必需的位置参数:“self”
、
、
、
、
当我在我的主函数的这一行中调用pytorch中的Network.parameters()时出现了一个问题: optimizer =
optim.SGD
(Network.parameters(),lr=0.001
浏览 1
提问于2017-05-04
得票数 7
回答已采纳
1
回答
毕火炬:深度复制后无训练效果
、
、
batch_size_train,network = Net() optimizer =
optim.SGD
浏览 8
提问于2020-12-15
得票数 2
回答已采纳
2
回答
Pytorch优化器返回空
、
、
(self.fc1(x)) 它在这里返回错误:criterion = nn.CrossEntropyLoss() optimizer =
optim.SGD
浏览 6
提问于2022-04-25
得票数 2
1
回答
Pytorch、backprop和复合模型
只是快速检查一下我有个问题。y = G(F(x))但是,首先我想更新F(x)的权重,然后根据y的值更新F和G的权重。我的想法是,我需要为F和G对象单独使用优化器/损失。除此之外,还提供了复合模型G(F())的一些更新功能。还有人能证实这一点吗?
浏览 2
提问于2020-01-16
得票数 0
2
回答
如何在循环中调用object中的所有方法?
我有一个对象,它有不同的方法,比如SGD,Adam,Adamax,我可以这样调用它:optim.Adam(parametersfor model in models: for lr in lrs: optimizer=optimizer,
浏览 10
提问于2017-08-02
得票数 1
2
回答
尝试索引全局“optim”( nil值)
、
carries loss from feval _,fs =
optim.sgd
浏览 0
提问于2016-05-22
得票数 1
1
回答
Pytorch:为什么计算函数中的字符串(优化器的字符串)会破坏函数?
、
GraphGNNModel(**model_kwargs) self.optimizer = eval('
optim.SGD
为什么当我有:在__init__部分中,脚本可以工作,但是当我更改为eval('
optim.SGD
self.parameters(),lr=0.1)')时,该函数会因错误而中断:
浏览 10
提问于2022-09-22
得票数 1
2
回答
Pytorch教程的损失并没有像预期的那样减少。
、
shuffle=False, num_workers=2) criterion = nn.CrossEntropyLoss() optimizer =
optim.SGD
浏览 1
提问于2019-11-19
得票数 1
回答已采纳
1
回答
优化器得到了一个空参数列表
、
如果我使用
optim.SGD
(model_conv.fc.parameters(),我会得到一个错误:这个错误是当model_conv.fcnn.Linear(num_ftrs, 1) #it works fine optimizer_conv =
optim.SGD
浏览 21
提问于2022-08-10
得票数 0
1
回答
PyTroch,渐变计算
、
将torch.optim作为选项导入optimizer =
optim.SGD
(net.parameters(), lr=0.01)optimizer.zero_grad
浏览 10
提问于2019-07-05
得票数 0
1
回答
我是否需要在PyTorch中建立多个神经网络实例来测试多个损失函数?
、
、
、
、
cuda()crit_loss_2 = loss_2() opt_loss_2 =
optim.SGD
('params') for i, dat in enumeratenetwork = ANN().cuda() cr
浏览 1
提问于2018-05-26
得票数 1
回答已采纳
1
回答
带负采样python实现的Word2Vec
、
、
、
我试图用负采样在python中实现word2vec,几乎从零开始,在神经网络中非常新,并面临一些问题。会非常感谢你的帮助。dataset = Word2VecNegativeSampling(data, num_negative_samples, 30000)wordvec_dim = 10 class Word2VecNegativeSamples(
浏览 9
提问于2022-06-29
得票数 0
2
回答
Torch 7-参数问题
、
、
当我在torch 7演示中看到这一行时,我感到困惑; parameters:copy(x)例如,在此文档中的第147行;
浏览 2
提问于2015-12-04
得票数 2
1
回答
如何将一个模型的输出作为另一个模型的参数并进行端到端的优化
、
、
当我们计算上一个模型的损失时,我们实际上将这三行写成如下:loss.backforward()优化器如下所示: optimizer =
optim.SGD
反向传播端到端模型,是否有必要添加ResNet的参数,比如
optim.SGD
的第一个arg?如果是的话,我们怎么能得到ResNet的对角呢?
浏览 11
提问于2022-09-12
得票数 1
回答已采纳
2
回答
Pytroch随层宽变化的学习速率
、
、
device) criterion = nn.CrossEntropyLoss() optimizer =
optim.SGD
浏览 6
提问于2022-05-01
得票数 1
回答已采纳
1
回答
有人知道下面两条线的区别吗?
Observe that only parameters of final layer are being optimized asoptimizer_conv =
optim.SGD
:optimizer_ft =
optim.SGD
(model_ft.parameters(),lr=1e-3,momentum=0.9,weight_decay=0.1),还是干脆删除#1,让#2单独使用
浏览 4
提问于2022-10-26
得票数 -1
回答已采纳
1
回答
MNIST上SGD+momentum v/s SGD的误差比较
、
、
为此,我创建了两个单元格块,一个用于SGD:optimizer =
optim.SGD
(net.parameters(), lr=0.0012000))新交所10期后的损失:损失: 0.674sgd_momentum =
optim.SGD
浏览 9
提问于2022-01-12
得票数 0
1
回答
PyTorch中特定于参数的学习率
、
、
在上,我找到了这个: {'params': model.classifier.parameters
浏览 18
提问于2019-11-24
得票数 1
回答已采纳
1
回答
为什么PyTorch中的嵌入是作为稀疏层实现的?
、
、
层在PyTorch中列在“稀疏层”下,但有以下限制: 原因是什么
浏览 0
提问于2017-12-18
得票数 5
回答已采纳
1
回答
如何在pytorch中为不同的层设置不同的学习率?
、
、
我知道我可以遵循它文档中的方法: {'params': model.classifier.parameters
浏览 2
提问于2017-05-06
得票数 10
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch中的多进程并行处理
pytorch深度学习如何入门?
在 PyTorch 中使用梯度检查点在GPU 上训练更大的模型
能否写一段大模型计算的代码例子
从头开始了解PyTorch的简单实现
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
云直播
活动推荐
运营活动
广告
关闭
领券