腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
多个数据集
的
批规范化?
、
、
、
、
我正在做
一个
生成合成数据
的
任务,以帮助我
的
模型
的
培训。这意味着训练是在合成+真实数据上进行
的
,并在真实数据上进行测试。我被告知,批量
归一化
层可能试图在训练时找到对所有人都有好处
的
权重
,这是
一个
问题,因为我
的
合成数据
的
分布并不完全等于实际数据
的
分布。因此,我们
的
想法是拥有不同
的
批次
归一化
层
的
权重
浏览 0
提问于2021-07-29
得票数 0
1
回答
使用
归一化
的
权重
创建
一个
简单
的
PyTorch
神经网络
、
我想
创建
一个
简单
的
PyTorch
神经网络
,它
的
权重
之和等于1。为了理解我
的
问题,这里给出
一个
例子: ?
浏览 31
提问于2021-09-07
得票数 0
回答已采纳
1
回答
如何处理多个数据集
的
批量
归一化
?
、
、
、
、
我正在处理一项生成合成数据
的
任务,以帮助训练我
的
模型。这意味着训练是在合成+真实数据上执行
的
,并在真实数据上进行测试。有人告诉我,批量
归一化
层在训练时可能会试图找到对所有人都有利
的
权重
,这是
一个
问题,因为我
的
合成数据
的
分布与实际数据
的
分布并不完全相等。因此,我们
的
想法是让批
归一化
层
的
权重
有不同
的
“副本”。因此,
神经网络<
浏览 2
提问于2021-08-27
得票数 1
1
回答
利用TensorFlow层
的
`kernel_constraint`实现
权重
归一化
、
、
、
一些TensorFlow层(如和 )接受
一个
kernel_constraint参数,根据,该参数实现了 可选
的
投影函数,在被优化器更新后应用于内核(例如,用于实现层权
的
范数约束或值约束)。提出了一种称为权值
归一化
的
神经网络
归一化
技术,该技术对网络层
的
权向量进行规范化,而批
归一化
则对通过该层
的
实际数据批进行规范化。在某些情况下,
权重
归一化
方法
的
计算开销较低,在批处
浏览 1
提问于2018-07-15
得票数 7
1
回答
如何从有向图实现
PyTorch
NN
、
、
我是
Pytorch
的
新手,也是自学
的
新手,我想
创建
一个
接受有向图
的
ANN。我还希望将每个连接
的
预定义
权重
和偏差传递给它,但现在愿意忽略它。我对这些条件
的
动机是,我正在尝试实现NEAT算法,该算法基本上是
使用
遗传算法来进化网络。我想
的
代码是: class Net(torch.nn.Module): super(Net, se
浏览 12
提问于2020-03-10
得票数 1
1
回答
我该如何在火炬中保存模型重量?
、
head with a new one训练模型不
使用
model.fit()函数,而是
使用
循环。
浏览 0
提问于2021-05-18
得票数 2
1
回答
火炬传递中
的
暹罗
神经网络
、
如何在
PyTorch
中实现暹罗
神经网络
?
浏览 5
提问于2018-12-16
得票数 5
回答已采纳
2
回答
pyTorch
中
的
矩阵乘法
、
、
、
我正在用
pyTorch
编写
一个
简单
的
神经网络
,其中
的
特征和
权重
都是(1,5)张量。我在下面提到
的
这两种方法有什么不同?
浏览 2
提问于2018-11-27
得票数 4
回答已采纳
1
回答
Pytorch
负载模型
、
使用
固定
权重
构建卷积层很
简单
,只需将
权重
内核传递给conv2d()即可。并且可以方便地加载预先训练好
的
模型,如VGG19。但我发现
使用
pytorch
不是这样
的
,因为conv2d()不接受显式
的
内核,而是接受内核大小。所以我想知道,我们是否可以通过
简单
地将
权重
传递给像conv2d()这样
的
方法来重用VGG19中
的
权重
。
浏览 4
提问于2017-09-18
得票数 1
1
回答
如何规范化张量数据集
、
首先,我有
一个
列表列表。 每一对都对应于变量x和y。我
的
问题是,如何对变量x和y进行
归一化
,以便获得
归一化
的
输入,然后
使用
Dataloader将其提供给我
的
神经网络
。也许我应该通过从列表列表中排除变量x来获得x=1,1,1,2,0,3,这与y=2,3,4,5,3,5相同,然后对其进行标准化,并从标准化向量再次
创建
列表列表?或者,在
pytorch
中有没有更
简单
的
方法?torch.ut
浏览 35
提问于2020-12-16
得票数 0
2
回答
使用
torch.no_grad()
的
目的是什么:
、
、
、
、
考虑
使用
PyTorch
实现线性回归
的
下列代码: print(f'epoch {epoch+1}: w = {w.item():.3f}, loss = {l.item():.8f}') “with”块是做什么
的
?W
的
requires_grad参数已经设置为True。为什么会把它放在with torch.no_grad()块下呢?
浏览 27
提问于2022-06-05
得票数 4
1
回答
在链子或火把中,是否可以对不同
的
权重
使用
不同
的
L1 / L2正则化参数?
、
(举个例子)在实现noutput目标值
的
简单
线性模型时,将其作为
pytorch
中
的
神经网络
:(打电话)returnyoptimizer.add_hook(optimizer.WeightDecay(rate=0.01)) 对于从所有ninput输入单元到noutput输出单元之一
的<
浏览 1
提问于2018-04-22
得票数 0
回答已采纳
1
回答
将CSRA从
pyTorch
转换为TensorFlow
、
、
我试图用 (而不是
PyTorch
)实现TensorFlow中
的
CSRA模块,
使用
MobileNetV3作为特性提取器。我只精通TensorFlow,在从
PyTorch
到TensorFlow
的
翻译中遇到了一些困难。 实现该模块
的
使用
了一些在TensorFlow中不常用
的
函数,而those为这些函数提供
的
帮助很少。TensorFlow中获得
一个
TensorFlow。我目前面临
的
问题似乎是,head.g
浏览 2
提问于2022-05-23
得票数 0
2
回答
pytorch
attention seq2seq教程中
的
错误?
、
我正在用
Pytorch
编写序列
神经网络
的
序列。在official
Pytorch
seq2seq tutorial中,有
一个
注意力解码器
的
代码,我不能理解/认为可能包含错误。它通过连接输出和此时
的
隐藏状态来计算每个时间步
的
注意力
权重
,然后乘以
一个
矩阵,得到
一个
大小等于输出序列长度
的
向量。注意,这些注意力
权重
不依赖于编码器序列(在代码中命名为encoder
浏览 37
提问于2019-05-03
得票数 1
2
回答
用
神经网络
绘制一幅图像(也就是谷歌
的
不确定主义),
使用
诺尔温\千层面
、
、
、
、
也许很多人已经看过谷歌研究
的
这篇文章: 我想做一些类似的事情,只是为了看看它是如何工作
的
,也许将来可以用它来更好地理解是什么使我
的
网络失败好吧,假设我在诺尔学习里建造了
一个
安,有一些建筑,我也受过一定程度
的
训练。但是..。接下来该怎么办?我从他们
的
文章里听不到。他们似乎不只是想象一些特定层次
的
权重
。在我看来(也许我错了)他
浏览 2
提问于2015-07-02
得票数 1
回答已采纳
1
回答
加权均值和方差
的
更新
、
、
、
、
我试着从论文
神经网络
中
的
权重
不确定性
的
反推算法来理解贝叶斯,其思想是建立
一个
神经网络
,其中每个
权重
都有它自己
的
概率分布。我明白这一理论,但我不明白如何更新学习部分
的
均值和方差。我在
Pytorch
中找到了
一个
代码,它
简单
地做到了:def __init__(self, in_features, out_features
浏览 0
提问于2021-04-14
得票数 1
1
回答
如何在训练
神经网络
时节省中间权值
、
我正在用
pytorch
训练
一个
神经网络
,我想在每一次迭代中保存
权重
。换句话说,我想要
创建
一个
列表,其中包含了
神经网络
在训练过程中拥有的所有
权重
。weight = model.fc2.weight.detach().numpy()然后,当我打印列表‘When _ list’
的
条目时,我注意到它们都是相同
的
,这不可能是真的,因为我已经在培训期间打印了<e
浏览 2
提问于2019-11-08
得票数 1
回答已采纳
1
回答
pytorch
仅调整丢失数据
的
某些
权重
、
、
我正在为
一个
经常遇到丢失数据
的
模型编写代码。
pytorch
(或tensorflow,因为我还没有写代码,所以也没问题)中有没有
一个
选项可以只计算/更新现有数据
的
梯度和
权重
?实际上,这是从
一个
最大
的
神经网络
中提取
一个
较小
的
神经网络
。
浏览 0
提问于2018-04-10
得票数 0
2
回答
什么是第一次初始化重量在喷炬卷积层
、
、
、
学习 在您所
使用
的
代码中,您已经显式地设置了过滤器
权重
的
值,但是
神经网络
在对一组图像数据进行训练时实际上将学习最佳
的
过滤器
权重
。在本节
的
后面,您将了解到这类
神经网络
的
所有情况,但您知道高通和低通过滤器是定义这种网络行为
的
原因,并且您知道如何从零开始编写这些代码!在实践中,您还会发现许多
神经网络
学习检测图像
的
边缘,因为对象
的
边缘包含关于对象形状<e
浏览 2
提问于2018-12-31
得票数 1
回答已采纳
1
回答
为
PyTorch
的
交叉熵损失添加
权重
参数会导致数据类型RuntimeError
我目前正在
使用
PyTorch
来训练
神经网络
。我
使用
的
数据集是
一个
具有大量0
的
二进制分类数据集。我决定尝试
使用
PyTorch
的
交叉熵损失
的
weight参数.通过sklearn.utils.class_weight.compute_class_weight计算
权重
,得到[0.58479532, 3.44827586]
的
权重
值。当我将这个class_w
浏览 6
提问于2022-05-27
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用 Serverless 创建一个简单的短网址服务
使用keras创建一个简单的生成式对抗网络
使用Decentraland SDK创建记忆游戏——学习如何使用SDK和API来创建您的第一个简单的游戏!
一个简单而强大的深度学习库—PyTorch
使用 curl 创建简单的性能监控工具
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券