腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(233)
视频
沙龙
1
回答
适用于
CrossEntropyLoss
的
PyTorch
LogSoftmax
vs
Softmax
pytorch
、
cross-entropy
我知道
PyTorch
的
LogSoftmax
函数基本上只是一种更稳定
的
计算Log(
Softmax
(x))
的
方法。
Softmax
允许您将线性层
的
输出转换为分类概率分布。
pytorch
documentation表示,
CrossEntropyLoss
将nn.
LogSoftmax
()和nn.NLLLoss()组合在一个类中。 查看NLLLoss,我仍然在使用2个日志吗?我认为负日志是事件
的
浏览 26
提问于2020-12-08
得票数 9
回答已采纳
1
回答
自定义分类器py手电筒,我想添加
softmax
python
、
pytorch
nn.Linear(h4_dim, output_dim),我选择了
CrossEntropyLoss
在验证和测试中,如何添加
Softmax
?
浏览 2
提问于2022-10-01
得票数 -1
回答已采纳
1
回答
PyTorch
CrossEntropyLoss
和Log_
SoftMAx
+ NLLLoss给出了不同
的
结果
pytorch
、
loss-function
、
softmax
、
cross-entropy
根据
PyTorch
文档,
CrossEntropyLoss
()是
LogSoftMax
()和NLLLoss()函数
的
组合。但是,调用
CrossEntropyLoss
()提供了与调用
LogSoftMax
()和NLLLoss()不同
的
结果,这从给定代码
的
输出中可以看出。 是什么导致了不同
的
结果?来自
PyTorch
的
交叉熵:张量(2.3573)来自Manual_
PyTorch
_NNLoss<
浏览 0
提问于2023-04-27
得票数 0
回答已采纳
1
回答
使用一个热编码和
softmax
的
Pytorch
(范畴)交叉熵损失
python
、
pytorch
、
one-hot-encoding
、
cross-entropy
我在寻找一个传递熵损失函数,就像Tensorflow中
的
CategoricalCrossEntropyLoss。targets = [0, 0, 1]我要计算软件最大值上
的
(范畴)交叉熵,而不是,而不是,把预测
的
最大值作为标签不幸
的
是,我没有找到一个合适
的
解决方案,因为
Pytorch
的
浏览 3
提问于2020-11-29
得票数 1
1
回答
如何正确使用交叉熵损失对软件最大值进行分类?
python
、
deep-learning
、
pytorch
、
softmax
、
cross-entropy
我想训练一个多类别的分类器,用
Pytorch
。这让我很困惑。 我在
Pytorch</em
浏览 2
提问于2020-12-22
得票数 3
回答已采纳
2
回答
在
LogSoftmax
中使用
CrossEntropyLoss
python
、
machine-learning
、
pytorch
在
Pytorch
documentation中,
CrossEntropyLoss
将
LogSoftMax
和NLLLoss组合在一个类中 但是我很好奇;如果我们在我
的
分类器中同时使用
CrossEntropyLoss
和
LogSoftMax
,会发生什么: model_x.fc = nn.Sequential (nn.Linear(num_ftrs, 2048, bias=True), nn.ReLU(),nn.Linear(256 ,128), nn.ReLU(),
浏览 25
提问于2020-10-23
得票数 1
1
回答
像在Keras中一样,得到了火炬中
的
交叉熵损失
python
、
tensorflow
、
keras
、
pytorch
特别是交叉熵损失似乎返回完全不同
的
数字。0.11]]) print("
PyTorch
", nn.
CrossEntropyLoss
()(t.tensor(y_pred).argsort(dim=-1).float(), t.tensor(y_true).argmax(dim=-1)))``` Keras tf.Tensor(2.
浏览 8
提问于2020-06-05
得票数 2
回答已采纳
1
回答
CNN模型
的
损失不收敛
machine-learning
、
deep-learning
、
computer-vision
、
pytorch
、
conv-neural-network
transform=transform) model.to('cuda') criterion = nn.
CrossEntropyLoss
()
浏览 43
提问于2020-04-25
得票数 0
3
回答
如何利用火炬中
的
交叉熵损失进行二值预测?
pytorch
在火炬文档中,交叉熵损失是这样说
的
:这是否意味着对于二进制(0,1)预测,输入必须转换为(N,2)张量,其中第二维等于(1-p)?因此,例如,如果我预测一个类
的
目标1 (true)为0.75,是否需要将两个值(0.75;0.25)叠加在一起作为输入?
浏览 0
提问于2018-08-18
得票数 3
1
回答
毕道尔CNN不学习
python
、
pytorch
、
conv-neural-network
我目前正试图训练一位
PyTorch
CNN,以便根据核磁共振扫描对精神错乱者和非精神错乱者进行分类。然而,在训练过程中,模型
的
丢失保持不变,在试图区分3类时,模型
的
准确性仍停留在.333。对于类似的问题,我曾尝试过答卷者提出
的
许多建议,但没有一项对我
的
具体任务有帮助。这些建议包括改变模型中卷积单元
的
数量,尝试不同
的
损失函数,在原始数据集上对模型进行培训,然后扩展到更大
的
、增强
的
图像集,以及更改诸如学习速率和批处理大小等参数。我在下面附
浏览 6
提问于2021-01-11
得票数 1
回答已采纳
1
回答
如何从
PyTorch
中
的
概率计算交叉熵?
deep-learning
、
pytorch
、
loss-function
、
cross-entropy
默认情况下,
PyTorch
的
cross_entropy以logits (来自模型
的
原始输出)作为输入。我知道
CrossEntropyLoss
将
LogSoftmax
( log (
softmax
(X)和NLLLoss (负日志似然损失)合并在一个类中。p_i,j表示属于j类
的
样本i模型所预测
的
概率。如果我用手计算,结果是:0.43
浏览 2
提问于2020-02-11
得票数 4
回答已采纳
2
回答
如何编写自定义
CrossEntropyLoss
neural-network
、
pytorch
、
logistic-regression
、
cross-entropy
我正在
Pytorch
中学习Logistic回归,为了更好地理解,我定义了一个定制
的
CrossEntropyLoss
,如下所示: exp_x = torch.exp,我将其与
Pytorch
的
nn.
CrossEntropyLoss
进行了比较,方法是将它应用于FashionMNIST数据,如下所示: criterion = nn.
CrossEntropyLoss
()
CrossEntropyLoss
(m
浏览 5
提问于2019-10-13
得票数 1
回答已采纳
1
回答
我应该在交叉熵之前应用
softmax
吗?
machine-learning
、
pytorch
、
cross-entropy
pytorch
教程()在CIFAR数据集上训练卷积神经网络。x = F.relu(self.fc2(x)) return x 我通过应用
softmax
和重新运行来测试这一点,但是准确度下降到了35%左右。这似乎有违直觉。
浏览 1
提问于2019-03-06
得票数 6
1
回答
训练集分布与激活函数/损失函数相关性
machine-learning
、
loss-function
、
probability
、
activation-function
训练集
的
概率分布如何影响激活函数/损失函数
的
选择? 训练集
的
概率分布与激活函数/损失函数
的
选择之间不存在这种相关性。
浏览 0
提问于2021-05-18
得票数 1
回答已采纳
2
回答
pytorch
的
交叉损失与keras
的
"categorical_crossentropy“有区别吗?
keras
、
deep-learning
、
neural-network
、
pytorch
我确信我
的
keras版本
的
神经网络与
pytorch
中
的
非常接近,但在训练过程中,我看到
pytorch
网络
的
损失值比keras网络
的
损失值要低得多。我想知道这是不是因为我没有正确复制keras中
的
pytorch
网络,或者两个框架中
的
损失计算是不同
的
。
Pytorch
损失定义: loss_function = nn.
CrossEntropyLoss
() optimize
浏览 555
提问于2020-04-26
得票数 3
回答已采纳
2
回答
在
CrossEntropyLoss
中抑制
PyTorch
神经网络最大软件
的
使用
python
、
neural-network
、
pytorch
、
softmax
、
cross-entropy
我知道当使用nn.
Softmax
()作为损失函数时,不需要在神经网络
的
输出层使用nn.
CrossEntropyLoss
函数。但是我需要这样做,是否有一种方法可以抑制在nn.
CrossEntropyLoss
中使用
softmax
,而在神经网络本身
的
输出层上使用nn.
Softmax
()呢?动机:我使用shap软件包来分析特性之后
的
影响,在这里我只能将经过训练
的
模型作为输入。但是,输出没有任何意义,因为我看
的
是无界值,而不是
浏览 0
提问于2019-09-26
得票数 2
回答已采纳
1
回答
政策梯度-和自动差异化(
Pytorch
/Tensorflow)
tensorflow
、
reinforcement-learning
、
pytorch
、
policy-gradients
在政策梯度中,我们有这样
的
情况:我
的
理解是,如果在最后一层应用对数交叉熵,梯度将按照上面的公式自动计算吗?
浏览 0
提问于2018-11-17
得票数 2
1
回答
对RNN最大输出层
的
理解
python
、
lstm
、
pytorch
、
rnn
、
softmax
=blstm_dim, return_sequences=True, recurrent_dropout=0.1))(model) x,_ = self.blstm(x, (h0, c0)) return F.
softmax
现在有趣
的
是,如果我从
PyTorch
模型中删除
softmax
(即在
浏览 2
提问于2018-11-26
得票数 2
回答已采纳
1
回答
有火炬
的
多类分类
pytorch
、
loss-function
、
softmax
、
cross-entropy
我正在微调DenseNet神经网络,这样它就能识别出3个不同
的
类。因为这是一个多类问题,所以我必须以这样
的
方式替换分类层:self.densenet121.classifier= nn.Sequential(nn.Linear(kernelCount, 3), nn.
Softmax
(dim=1))loss = torch.nn.
CrossEntropy
浏览 1
提问于2020-03-30
得票数 1
回答已采纳
1
回答
自定义丢失函数nn.
CrossEntropyLoss
python
、
pytorch
、
loss-function
、
cross-entropy
num_classes=10).float()*outputs return torch.sum(A-B)loss_func = nn.
CrossEntropyLoss
我想,因为它们是不同
的
函数,所以grad_fn是不同<em
浏览 2
提问于2021-09-18
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券