腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(576)
视频
沙龙
1
回答
BatchNorm
momentum
约定
PyTorch
、
、
、
、
或者我们只是在使用一种不同的
约定
?
浏览 5
提问于2018-01-20
得票数 10
回答已采纳
1
回答
训练和验证模式的相同数据丢失不一致tensorflow
、
、
、
、
此外,我在
Pytorch
中使用相同的优化器实现了相同的体系结构,而这在那里是不会发生的。使用
pytorch
进行训练,eval_loss收敛到训练损失 您可以在这里找到上面提到的https://colab.research.google.com/drive/18LipgAmKVDA86n3ljFW8X0JThVEeFf0a#scrollTo=TWDATghoRczu,最后还可以找到
Pytorch
实现
浏览 37
提问于2020-11-05
得票数 2
回答已采纳
2
回答
由
pytorch
模型转换而来的coreML模型给出了错误的预测概率
、
、
、
、
我有一个
pytorch
二进制分类模型,我将其转换为coreML。对于从
PyTorch
转换而来的原始
pytorch
和onnx模型,softmax函数之前的输出和概率类似。但是通过教程文档从
PyTorch
转换而来的coreML模型的输出是完全不正确的。检查coreML和
Pytorch
最后一层的权重似乎是相同的。=(3, 3), stride=(2, 2), padding=(1, 1), bias=False) (bn1):
BatchNorm
2d(512, eps=1e-05,
m
浏览 75
提问于2020-10-25
得票数 0
3
回答
增加批处理规范化会降低性能。
、
、
、
我正在使用
PyTorch
实现一个基于骨架的动作识别的分类网络。该模型由三个卷积层和两个完全连通的层组成。= 0.01 self.bn_cv2 = nn.
BatchNorm
2dref: https://discuss.
浏览 1
提问于2019-08-12
得票数 4
回答已采纳
1
回答
PyTorch
BatchNorm
2d计算
、
我正试图通过计算来理解
PyTorch
BatchNorm
2d的力学。import torchprint(a) [0.4969, 0.3340, 0.2211],我发现
BatchNorm
为了从
B
浏览 2
提问于2021-07-22
得票数 1
1
回答
如何重命名
Pytorch
对象名称?
、
我的
Pytorch
模型: (backbone): EfficientNetFeatures( (bn1):
BatchNorm
2d(48, eps=0.001,
momentum
=0.1
浏览 0
提问于2020-06-12
得票数 1
2
回答
将
Pytorch
图像分类器转换为mlmodel时出现问题:无论img如何,都返回相同的softmax输出
、
、
、
、
我按照预期使用
pytorch
和learn.predict() works训练并测试了一个图像分类器(Resnet34,Fast.ai,3个类)。当我转换
pytorch
-> onnx -> mlmodel时,无论我提交的是什么图像,它都会预测相同的softmax值。这是我的
pytorch
模型: Sequential( (0): Conv2d(3, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3), bias=False)
浏览 82
提问于2019-10-08
得票数 2
回答已采纳
3
回答
如何剥离一个预先训练的网络,并添加一些图层使用火把闪电?
、
、
因此,我可以通过打印来加载模型并查看结构:print(64, eps=1e-05,
momentum
=0.1, affine=True, track_running_stats=True) ((64, eps=1e-05,
momentum
=0.1, affine=True,
浏览 5
提问于2021-02-01
得票数 0
1
回答
如何将data_parallel模型移动到特定的cuda设备上?
(conv): Conv2d(3, 64, kernel_size=(3, 3), stride=(2, 2), padding=(1, 1), bias=False) (prelu): PReLU(num_parameters(64, eps=1e-05,
momentum
=0.1, affine=True, track_running_stat
浏览 1
提问于2021-04-28
得票数 0
回答已采纳
1
回答
可在移动平台上部署的
pytorch
ML模型跟踪脚本
(3, eps=1e-05,
momentum
=0.1, affine=True, track_running_stats=True) (0):(200, eps=1e-05,
momentum
=0.1, affine=True, track_running_stats=True) (1): LinBnDrop((0): Linear(in_features=200, out_features=100, bias=False) (1): ReLU(inplace=True
浏览 21
提问于2021-12-30
得票数 0
1
回答
关于哪个维度的标准化?
、
然而,在torch.nn.
BatchNorm
1d中,输入参数是num_features,这对我来说没有任何意义。 为什么“火把”不遵循最初关于“蝙蝠侠标准化”的论文?
浏览 3
提问于2021-05-29
得票数 3
回答已采纳
1
回答
如何提取特征向量并保存到Densenet121中?
、
、
、
我正在尝试提取我的数据集(x射线图像)的特征向量,它是在
Pytorch
上训练的,用于使用Densenet121进行分类。我想从一个中间层中提取特征向量。(64, eps=1e-05,
momentum
=0.1, affine=True, track_running_stats=True) (relu1): ReLU
浏览 56
提问于2021-09-02
得票数 1
1
回答
当使用大的神经网络层时,木星内核崩溃/死亡,有什么想法吗?
、
、
、
20*20, 20*20), nn.Dropout(0.5),nn.LeakyReLU(), nn.
BatchNorm
1d(20*20,
momentum
=0.5),15*15, 3),
浏览 1
提问于2017-10-07
得票数 0
回答已采纳
2
回答
CNN:用模型的描述可视化一个模型
、
、
、
、
=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) (bn2):
BatchNorm
2d(64, eps=1e-05,
momentum
=0.1=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) (
浏览 0
提问于2021-06-09
得票数 1
2
回答
如何计算CNN中的层数?
、
、
、
、
(64, eps=1e-05,
momentum
=0.1, affine=True) (maxpool): MaxPool2d (size=(3,, 3), stride=(1, 1), padding=(1, 1), bias=False) (1):
BatchNorm
2d(12
浏览 3
提问于2017-04-03
得票数 11
回答已采纳
1
回答
如何在GAN火炬中将图像送至发生器
、
、
(512, eps=1e-05,
momentum
=0.1, affine=True, track_running_stats=True) (5): ReLU(inplace=True)(128, eps=1e-05,
momentum
=0.1, affine=True, track_running_stats=True) (8):
浏览 1
提问于2021-03-24
得票数 1
回答已采纳
1
回答
尽管更改了所有参数的require_grad = false,但在
pytorch
模型中require_grad = True
、
、
、
、
我正在尝试从
pytorch
中的预训练模型中提取特征,然后使用这些特征进行进一步的训练。(64, eps=1e-05,
momentum
=0.1, affine=True, track_running_stats=True) (24):
BatchNorm
2d(256, eps=1e-05,
momentum
(512, 512, kernel
浏览 432
提问于2021-07-14
得票数 0
回答已采纳
1
回答
如何从托管在外部服务器上的朱庇特笔记本导出fast.ai模型(谷歌云计算实例)?
、
、
=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) (20):
BatchNorm
2d(128, eps=1e-05,
momentum
=0.1,=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) (32): <em
浏览 2
提问于2020-05-29
得票数 1
4
回答
如何从ResNet模型中删除
PyTorch
中的最后一个FC层?
、
、
我使用的是来自ResNet152的
PyTorch
模型。我想从模型中去掉最后一个FC层。(512, eps=1e-05,
momentum
=0.1, affine=True, track_running_stats=True) (bn3):
BatchNorm
2d(2048, eps=1e-05,
momentum
=0.1, affine=True(415):
BatchN
浏览 1
提问于2018-09-28
得票数 34
回答已采纳
1
回答
为什么
PyTorch
BatchNorm
1D在规范整数类型张量的同时给出的"batch_norm“不是为‘长’错误实现的?
、
、
、
、
我试着学习
Pytorch
框架中的一些函数,在规范一个简单的整数张量时由于下面的错误而被困住了。有人能帮我解决这个问题吗。objecttest_output =
batchnorm
1D(test_int_input)--site-packages/torch/nn/functional.py in batch_norm(input, running_mean, running_var, weig
浏览 7
提问于2022-11-28
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
对象存储
活动推荐
运营活动
广告
关闭
领券