腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
nn.Parameter
的
含义
是什么
pytorch
我可以找到代码, weight =
nn.Parameter
(torch.FloatTensor(in_features, out_features)) 这段代码是否将权重设置为随机值?如果是,那么 weight =
nn.Parameter
(torch.zeros(size=(in_features, out_features))) 这是否只是将初始值设置为零矩阵而不是随机值?
浏览 101
提问于2021-07-17
得票数 1
1
回答
如何通过参数更新传递梯度?
machine-learning
、
pytorch
、
gradient-descent
我有一个参数import torch.nn as nn我需要更新这个参数
的
值,同时保持梯度流(对于元学习问题此外,我还尝试了以下方法,但在工作时,梯度没有流动:a = torch.tensor([2.0], requires_grad=True)x.backward()&
浏览 3
提问于2022-06-26
得票数 0
2
回答
nn.Parameter
上
的
Torch操作
pytorch
我有一个参数列表,我想把列表中
的
所有元素加起来。import torchb =
nn.Parameter
(torch.rand(1)) torch.sum(*my_list)跟踪(最近一次调用):文件"",第8行,在TypeError: sum()中,接收到一个无效
的
参数组合- got (参数,参数),张量输入,名称元组,bool记分,*,torc
浏览 1
提问于2022-03-15
得票数 1
1
回答
这两种神经网络结构之间
的
区别
是什么
?
python
、
pytorch
第一次使用
nn.Parameter
def __init__(self): self.weights =
nn.Parameter
(torch.randn(300, 10)) def forward(self, x):当我这样做
的
时候 m
浏览 0
提问于2019-08-26
得票数 2
1
回答
在PyTorch中是否可以将参数保留为指数形式?
parameters
、
pytorch
我想对T使用一个指数形式
的
参数,让我们将这个参数命名为x,所以中间步骤现在应该返回T^x。 我试图训练模型,但在第一次向后传递之后,x
的
值变成了nan。
浏览 19
提问于2021-10-17
得票数 0
1
回答
如何训练在pytorch中嵌套列表中写入
的
参数?
python
、
pytorch
下面是我对模型定义
的
一部分。torch.tensor(self.grid_array[1:] - self.grid_array[:-1]).to(device).float() self.we
浏览 9
提问于2022-06-25
得票数 0
1
回答
在Pytorch中使用
nn.Parameter
定义标量
的
最佳方法
python
、
neural-network
、
pytorch
在我
的
CNN中,在某个阶段,我想将一个特征图与一些标量相乘,这应该通过网络来学习。下面哪一项是最好
的
方法,或者都是一样
的
?标量必须初始化为5。alpha =
nn.Parameter
(5) ...alpha =
nn.Parameter
(torch.tensor(5)) ...alpha =
nn.Parameter
(torch.ones(1)*5)
浏览 65
提问于2020-09-22
得票数 2
回答已采纳
1
回答
如何向pytorch中
的
一个网络输出通道添加可学习
的
偏置
python
、
machine-learning
、
pytorch
、
bias-neuron
., 1] + self.bias return out 正如您从代码中看到
的
,我想向第二个输出通道添加一个偏置项但是,我
的
实现不起作用。偏置项根本不会更新。它在训练过程中保持不变,我认为它在训练过程中是不可学习
的
。所以问题是,我如何才能让偏置术语变得可学?有可能做到这一点吗?下面是训练过程中偏差
的
一些输出。
浏览 31
提问于2020-06-20
得票数 0
2
回答
自动更新自定义图层参数,同时在移相器中反向传播
neural-network
、
gradient
、
pytorch
、
backpropagation
network parameter when instantiating the model return x*self.my_parameterclass MyNetoutput = model(x)loss = criterion(1, out
浏览 1
提问于2018-11-25
得票数 2
回答已采纳
1
回答
Module.parameters()如何找到参数?
python-3.x
、
pytorch
我注意到,每当您创建扩展torch.nn.Module
的
新网络时,都可以立即调用net.parameters()来查找与反向传播相关
的
参数。不知何故,MyNet必须能够跟踪所使用
的
参数,但如何跟踪呢?
浏览 25
提问于2019-02-19
得票数 2
回答已采纳
1
回答
火炬参数“不能优化无叶张量”
pytorch
我在这段代码上得到了“无法优化非叶张量” torch.rand(encoder_feature_dim, encoder_feature_dimself.device)不知道它为什么会发生,应该是叶张量,因为它没有与之相关
的
孩子它只是一个torch.rand在一个
nn.Parameter
变量中。它在self.w_ch1_opt
浏览 3
提问于2022-06-19
得票数 1
回答已采纳
1
回答
为什么pytorch模型不能识别我定义
的
张量?
python
、
machine-learning
、
neural-network
、
pytorch
我试着写一个和我为了练习而读过
的
论文一样
的
模型。这是我写
的
代码。torch.mm(pool, self.r_2) return y_hat) 我在谷歌上搜索了这个问题,有人说这些张量应该使用torch.autograd.Variable
浏览 43
提问于2020-02-13
得票数 1
回答已采纳
1
回答
如何在pytorch中保存和加载
nn.Parameter
(),以便可以继续对其进行优化?
python
、
pytorch
我知道如何存储和加载nn.Model,但找不到如何为
nn.Parameter
创建检查点。我尝试了这个版本,但是优化器在恢复之后没有改变
nn.Parameter
的
值。import nn as nnfrom torch.optim import Adam lr = 0.001 alpha =
nn.Parameter
浏览 120
提问于2021-05-12
得票数 3
回答已采纳
1
回答
模型参数初始化
linear-regression
、
pytorch
我是PyTorch
的
新手。我正在为线性回归编写一个简单
的
程序,我想用不同
的
方法(SGD、动量、ADAM等)来比较结果。我遇到
的
问题是,每次循环结束时,都希望将模型参数重新初始化为与前一个模型开始时相同
的
值,因此比较是有效
的
。这是我目前所掌握
的
,这是我
的
训练数据: y1=2*x1+1+np.random.normal(0,1,(10,1opt.step()
浏览 0
提问于2019-01-18
得票数 2
回答已采纳
1
回答
具有火炬
的
可学习LeakyReLU激活函数
python
、
deep-learning
、
pytorch
、
tensor
、
activation-function
还有什么我必须修改
的
吗?
浏览 5
提问于2021-12-13
得票数 1
回答已采纳
1
回答
不能将“torch.cuda.FloatTensor”赋值为参数“gamma_1”(torch.nn.Parameter或无预期值)
pytorch
我不能让self.gamma_1成为我
的
代码: self.gamma_1 =
nn.Parameter
(init_values * torch.ones((dim)),requires_grad=True)self.gamma_1 =
nn.Parameter
(init_values * torch.ones我
的
环境是python3.8.5,PyTorch '1.8.1
浏览 5
提问于2021-12-09
得票数 0
1
回答
在火炬中强制
nn.Parameter
(矩阵)参数中
的
结构
python
、
matrix
、
parameters
、
pytorch
在PyTorch库中,可以定义具有某些初始值
的
神经网络参数
nn.Parameter
,例如,在我
的
例子中,例如,考虑一个严格
的
下三角形式(在矩阵参数
的
情况下),因此some_param
的
形式如下:[a21 0 0 0 ][a41 a42 a43 0 ]some_param
浏览 8
提问于2022-03-07
得票数 1
1
回答
没有更新
的
nn.Parameter
不确定使用情况
pytorch
、
computer-vision
我用
nn.Parameter
()声明了两个requires_grad=True变量,并且在声明变量
的
类
的
init方法中使用了一个不同
的
函数。lparam和rparam没有得到更新,我
的
问题是我这样做是正确
的
吗?如果不是,应该如何做呢?__init__() self.lparam =
nn.Parameter
(torch.zeros(1), requires_grad=True).cuda(device=opt
浏览 5
提问于2022-07-22
得票数 1
1
回答
定义自定义变量pytorch张量
pytorch
我有一个和这个类似的问题: 有一个(n1, n2)形式
的
输入向量,我想要一个f(n1, n2) = f(n2, n1)
的
模型。我希望这个模型是线性
的
。例如,我想学习
的
2x2矩阵。因此,假设X = [[0, 1],[1, 0]]是一个反转向量
的
2x2矩阵,然后是f(n2,n1) = W*X*(n1, n2) = f(n1, n2) = W (n1, n2)。我如何在pytorch中定义这样
的
模型呢? 谢谢。
浏览 16
提问于2020-01-29
得票数 1
回答已采纳
1
回答
通过某种变换或保留子图来定义参数,但不是整个图。
python
、
pytorch
、
autograd
我遇到了一个我以前没见过
的
问题。我在贝叶斯机器学习中工作,因此我充分利用了PyTorch中
的
发行版。要做
的
一件常见事情是根据参数
的
日志定义一些分布参数,这样在优化时它们就不会变成负值(例如,正态分布
的
标准差)。 但是,为了独立于分发,我不想手动重新计算这个参数
的
转换。在第一次向后传递之后,计算参数指数
的
图中
的
部分将被自动删除,而不是重新添加。=
nn.Parameter
(torch.Tensor([1])) # Define the
浏览 1
提问于2019-07-09
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
芯片中的EDC字母是什么含义
云计算原生的真正含义是什么
六西格玛是什么?六西格玛的含义
以太坊合并终于发生了,但它的真正含义是什么?
“媒体管家”媒体邀约是什么意思(详解媒体邀约的含义)
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券