腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
多个数据集
的
批规范化?
、
、
、
、
我正在做
一个
生成合成数据
的
任务,以帮助我
的
模型
的
培训。这意味着训练是在合成+真实数据上进行
的
,并在真实数据上进行测试。我被告知,批量
归一化
层可能试图在训练时找到对所有人都有好处
的
权重
,这是
一个
问题,因为我
的
合成数据
的
分布并不完全等于实际数据
的
分布。因此,我们
的
想法是拥有不同
的
批次
归一化
层
的
权重
浏览 0
提问于2021-07-29
得票数 0
1
回答
使用
归一化
的
权重
创建
一个
简单
的
PyTorch
神经网络
、
我想
创建
一个
简单
的
PyTorch
神经网络
,它
的
权重
之和等于1。为了理解我
的
问题,这里给出
一个
例子: ?
浏览 31
提问于2021-09-07
得票数 0
回答已采纳
1
回答
如何处理多个数据集
的
批量
归一化
?
、
、
、
、
我正在处理一项生成合成数据
的
任务,以帮助训练我
的
模型。这意味着训练是在合成+真实数据上执行
的
,并在真实数据上进行测试。有人告诉我,批量
归一化
层在训练时可能会试图找到对所有人都有利
的
权重
,这是
一个
问题,因为我
的
合成数据
的
分布与实际数据
的
分布并不完全相等。因此,我们
的
想法是让批
归一化
层
的
权重
有不同
的
“副本”。因此,
神经网络<
浏览 2
提问于2021-08-27
得票数 1
1
回答
利用TensorFlow层
的
`kernel_constraint`实现
权重
归一化
、
、
、
一些TensorFlow层(如和 )接受
一个
kernel_constraint参数,根据,该参数实现了 可选
的
投影函数,在被优化器更新后应用于内核(例如,用于实现层权
的
范数约束或值约束)。提出了一种称为权值
归一化
的
神经网络
归一化
技术,该技术对网络层
的
权向量进行规范化,而批
归一化
则对通过该层
的
实际数据批进行规范化。在某些情况下,
权重
归一化
方法
的
计算开销较低,在批处
浏览 1
提问于2018-07-15
得票数 7
1
回答
如何从有向图实现
PyTorch
NN
、
、
我是
Pytorch
的
新手,也是自学
的
新手,我想
创建
一个
接受有向图
的
ANN。我还希望将每个连接
的
预定义
权重
和偏差传递给它,但现在愿意忽略它。我对这些条件
的
动机是,我正在尝试实现NEAT算法,该算法基本上是
使用
遗传算法来进化网络。我想
的
代码是: class Net(torch.nn.Module): super(Net, se
浏览 12
提问于2020-03-10
得票数 1
1
回答
我该如何在火炬中保存模型重量?
、
head with a new one训练模型不
使用
model.fit()函数,而是
使用
循环。
浏览 0
提问于2021-05-18
得票数 2
1
回答
火炬传递中
的
暹罗
神经网络
、
如何在
PyTorch
中实现暹罗
神经网络
?
浏览 5
提问于2018-12-16
得票数 5
回答已采纳
2
回答
pyTorch
中
的
矩阵乘法
、
、
、
我正在用
pyTorch
编写
一个
简单
的
神经网络
,其中
的
特征和
权重
都是(1,5)张量。我在下面提到
的
这两种方法有什么不同?
浏览 2
提问于2018-11-27
得票数 4
回答已采纳
1
回答
Pytorch
负载模型
、
使用
固定
权重
构建卷积层很
简单
,只需将
权重
内核传递给conv2d()即可。并且可以方便地加载预先训练好
的
模型,如VGG19。但我发现
使用
pytorch
不是这样
的
,因为conv2d()不接受显式
的
内核,而是接受内核大小。所以我想知道,我们是否可以通过
简单
地将
权重
传递给像conv2d()这样
的
方法来重用VGG19中
的
权重
。
浏览 4
提问于2017-09-18
得票数 1
1
回答
如何规范化张量数据集
、
首先,我有
一个
列表列表。 每一对都对应于变量x和y。我
的
问题是,如何对变量x和y进行
归一化
,以便获得
归一化
的
输入,然后
使用
Dataloader将其提供给我
的
神经网络
。也许我应该通过从列表列表中排除变量x来获得x=1,1,1,2,0,3,这与y=2,3,4,5,3,5相同,然后对其进行标准化,并从标准化向量再次
创建
列表列表?或者,在
pytorch
中有没有更
简单
的
方法?torch.ut
浏览 35
提问于2020-12-16
得票数 0
2
回答
使用
torch.no_grad()
的
目的是什么:
、
、
、
、
考虑
使用
PyTorch
实现线性回归
的
下列代码: print(f'epoch {epoch+1}: w = {w.item():.3f}, loss = {l.item():.8f}') “with”块是做什么
的
?W
的
requires_grad参数已经设置为True。为什么会把它放在with torch.no_grad()块下呢?
浏览 27
提问于2022-06-05
得票数 4
1
回答
在链子或火把中,是否可以对不同
的
权重
使用
不同
的
L1 / L2正则化参数?
、
(举个例子)在实现noutput目标值
的
简单
线性模型时,将其作为
pytorch
中
的
神经网络
:(打电话)returnyoptimizer.add_hook(optimizer.WeightDecay(rate=0.01)) 对于从所有ninput输入单元到noutput输出单元之一
的<
浏览 1
提问于2018-04-22
得票数 0
回答已采纳
1
回答
将CSRA从
pyTorch
转换为TensorFlow
、
、
我试图用 (而不是
PyTorch
)实现TensorFlow中
的
CSRA模块,
使用
MobileNetV3作为特性提取器。我只精通TensorFlow,在从
PyTorch
到TensorFlow
的
翻译中遇到了一些困难。 实现该模块
的
使用
了一些在TensorFlow中不常用
的
函数,而those为这些函数提供
的
帮助很少。TensorFlow中获得
一个
TensorFlow。我目前面临
的
问题似乎是,head.g
浏览 2
提问于2022-05-23
得票数 0
2
回答
pytorch
attention seq2seq教程中
的
错误?
、
我正在用
Pytorch
编写序列
神经网络
的
序列。在official
Pytorch
seq2seq tutorial中,有
一个
注意力解码器
的
代码,我不能理解/认为可能包含错误。它通过连接输出和此时
的
隐藏状态来计算每个时间步
的
注意力
权重
,然后乘以
一个
矩阵,得到
一个
大小等于输出序列长度
的
向量。注意,这些注意力
权重
不依赖于编码器序列(在代码中命名为encoder
浏览 37
提问于2019-05-03
得票数 1
2
回答
用
神经网络
绘制一幅图像(也就是谷歌
的
不确定主义),
使用
诺尔温\千层面
、
、
、
、
也许很多人已经看过谷歌研究
的
这篇文章: 我想做一些类似的事情,只是为了看看它是如何工作
的
,也许将来可以用它来更好地理解是什么使我
的
网络失败好吧,假设我在诺尔学习里建造了
一个
安,有一些建筑,我也受过一定程度
的
训练。但是..。接下来该怎么办?我从他们
的
文章里听不到。他们似乎不只是想象一些特定层次
的
权重
。在我看来(也许我错了)他
浏览 2
提问于2015-07-02
得票数 1
回答已采纳
1
回答
加权均值和方差
的
更新
、
、
、
、
我试着从论文
神经网络
中
的
权重
不确定性
的
反推算法来理解贝叶斯,其思想是建立
一个
神经网络
,其中每个
权重
都有它自己
的
概率分布。我明白这一理论,但我不明白如何更新学习部分
的
均值和方差。我在
Pytorch
中找到了
一个
代码,它
简单
地做到了:def __init__(self, in_features, out_features
浏览 0
提问于2021-04-14
得票数 1
1
回答
如何在训练
神经网络
时节省中间权值
、
我正在用
pytorch
训练
一个
神经网络
,我想在每一次迭代中保存
权重
。换句话说,我想要
创建
一个
列表,其中包含了
神经网络
在训练过程中拥有的所有
权重
。weight = model.fc2.weight.detach().numpy()然后,当我打印列表‘When _ list’
的
条目时,我注意到它们都是相同
的
,这不可能是真的,因为我已经在培训期间打印了<e
浏览 2
提问于2019-11-08
得票数 1
回答已采纳
1
回答
pytorch
仅调整丢失数据
的
某些
权重
、
、
我正在为
一个
经常遇到丢失数据
的
模型编写代码。
pytorch
(或tensorflow,因为我还没有写代码,所以也没问题)中有没有
一个
选项可以只计算/更新现有数据
的
梯度和
权重
?实际上,这是从
一个
最大
的
神经网络
中提取
一个
较小
的
神经网络
。
浏览 0
提问于2018-04-10
得票数 0
2
回答
什么是第一次初始化重量在喷炬卷积层
、
、
、
学习 在您所
使用
的
代码中,您已经显式地设置了过滤器
权重
的
值,但是
神经网络
在对一组图像数据进行训练时实际上将学习最佳
的
过滤器
权重
。在本节
的
后面,您将了解到这类
神经网络
的
所有情况,但您知道高通和低通过滤器是定义这种网络行为
的
原因,并且您知道如何从零开始编写这些代码!在实践中,您还会发现许多
神经网络
学习检测图像
的
边缘,因为对象
的
边缘包含关于对象形状<e
浏览 2
提问于2018-12-31
得票数 1
回答已采纳
1
回答
为
PyTorch
的
交叉熵损失添加
权重
参数会导致数据类型RuntimeError
我目前正在
使用
PyTorch
来训练
神经网络
。我
使用
的
数据集是
一个
具有大量0
的
二进制分类数据集。我决定尝试
使用
PyTorch
的
交叉熵损失
的
weight参数.通过sklearn.utils.class_weight.compute_class_weight计算
权重
,得到[0.58479532, 3.44827586]
的
权重
值。当我将这个class_w
浏览 6
提问于2022-05-27
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券