腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
交叉
熵
损失
和逻辑
损失
有什么区别吗?
、
、
、
我想用一个逻辑
损失
函数
作为我的深度学习模型来解决一个二元分类问题。我正在用角码来建立模型。然而,keras没有任何预先定义的逻辑。在阅读关于
损失
函数
的文章时,我遇到了关于
交叉
熵
损失
和逻辑
损失
的混淆陈述。在这个维基百科中,有一个关于物流
损失
和
交叉
熵
损失
的单独章节。然而,在这个维基百科中,它提到: 物流
损失
有时称为
交叉
熵
损
浏览 0
提问于2018-03-01
得票数 3
1
回答
角点中像素级二进制分类的最佳
损失
函数
、
、
我的模型是基于DenseNet121的,但是当我在最后一层使用softmax作为激活
函数
和分类
交叉
熵
损失
函数
时,
损失
是nan。什么是我可以在我的模型中使用的最好的丢失和激活
函数
?二元
交叉
熵
与范畴
交叉
熵
损失
函数
的区别是什么?提前谢谢。
浏览 7
提问于2017-10-27
得票数 5
回答已采纳
1
回答
为什么我的
交叉
熵
损失
函数
不收敛?
、
我试着自己写一个
交叉
熵
损失
函数
。我的
损失
函数
给出了与官方
损失
函数
相同的
损失
值,但当我在代码中使用
损失
函数
而不是官方
交叉
熵
损失
函数
时,代码不收敛。当我使用正式的
交叉
熵
损失
函数
时,代码会收敛。
浏览 5
提问于2022-08-28
得票数 0
回答已采纳
1
回答
tf.nn.softmax_cross_entropy_with_logits如何计算tensorflow中的最大
交叉
熵
?
tf.nn.softmax_cross_entropy_with_logits,文档显示它计算了逻辑和标签之间的最大
交叉
熵
,这意味着什么?它不是应用了
交叉
熵
损失
函数
公式吗?为什么文档说它计算软最大
交叉
熵
?
浏览 5
提问于2017-05-22
得票数 2
3
回答
什么是体重衰减?
、
、
、
softmax回归Softmax回归将一个softmax非线性应用于网络的输出,并计算归一化预测和标签的1-热编码之间的
交叉
熵
。对于正则化,我们还将通常的质量衰减
损失
应用于所有学习变量。模型的目标
函数
是
交叉
熵
损失
和所有这些重量衰减项之和,由
损失
()
函数
返回。我在论坛上读过一些关于什么是重量衰减的答案,我可以说,它被用于正则化的目的,以便计算权重的值,以获得最小的
损失
和更高的精确度。在上面的文章中,我了解到loss()
浏览 14
提问于2017-08-07
得票数 2
回答已采纳
1
回答
神经网络与异或分类
、
我在某个地方读到,均方误差
损失
有利于回归,
交叉
熵
损失
用于分类。 显然,我遗漏了什么,我的错误在哪里?
浏览 4
提问于2017-09-03
得票数 0
1
回答
MXNET自定义
损失
函数
和eval_metric
如何在MXNET中创建自定义
损失
函数
?例如,我希望计算每个可能标签的加权
交叉
熵
损失
,而不是计算一个标签的
交叉
熵
损失
(使用标准mx.sym.SoftmaxOutput层来计算
交叉
熵
损失
,并返回一个可以作为
损失
符号传递给拟合
函数
的符号)。MXNET教程提到使用 mx.symbol.MakeLoss(scalar_loss_symbol, normalization=&
浏览 26
提问于2017-08-22
得票数 3
2
回答
需要帮助选择
损失
函数
、
、
、
、
我应该为我的模型选择哪个
损失
函数
? 选择二进制
交叉
熵
后: ? 选择分类
交叉
熵
后: ? 上面的结果是对于相同的模型,只是
损失
不同,functions.This模型应该将图像分为26类,因此分类
交叉
熵
应该起作用。另外,在第一种情况下,准确率约为96%,但
损失
很高。为什么?
浏览 33
提问于2019-05-05
得票数 0
回答已采纳
3
回答
我们能用二元
交叉
熵
进行多类分类吗?
、
、
在此链接中,作者实现了一个分类为15个类的神经网络,并使用二元
交叉
熵
作为
损失
函数
。但是既然它是多类分类,那么使用二进制
交叉
熵
有效吗?还是我们应该用绝对
交叉
熵
代替?
浏览 0
提问于2019-09-09
得票数 5
1
回答
交叉
熵
损失
Pytorch
、
、
、
、
我有一个关于我的pytorch网络中
交叉
熵
损失
的最佳实现的问题。我正在构建一个网络,用于预测Volume-Pictures的3D分割。现在我想计算
交叉
熵
损失
。它收敛到0.5-0.6的
损失
,并且它只预测整个输出是背景。我该怎么办?谢谢!
浏览 2
提问于2021-06-08
得票数 0
1
回答
如何计算由Keras中的回调日志提供的“
损失
”?
、
、
、
即范畴
交叉
熵
?二元
交叉
熵
?还有别的吗? 或者是您传递到model.compile方法中的
损失
函数
?
浏览 0
提问于2019-06-24
得票数 0
回答已采纳
2
回答
SparseCategoricalCrosstentropy对sparse_categorical_crossentropy
、
、
SparseCategoricalCrossentropy:计算标签和预测之间的
交叉
熵
损失
。 但我还是不确定。任何
损失
都会在标签和预测之间进行计算。那这两个有什么区别呢?
浏览 0
提问于2020-07-10
得票数 1
回答已采纳
1
回答
多个正分类的流量
损失
计算
、
、
、
哪种
损失
函数
更适合这种情况(乙状结肠
交叉
熵
、softmax
交叉
熵
或稀疏softmax
交叉
熵
)?
浏览 1
提问于2018-01-27
得票数 0
回答已采纳
1
回答
ArcFace是严格意义上的
损失
函数
还是激活
函数
?
、
、
、
、
此外,我还看到了许多将Softmax称为
损失
函数
的来源,而我以前所理解的是许多分类神经网络输出层的激活
函数
。基于这两个混淆点,我目前的理解是,丢失
函数
,即网络实际上是如何计算给定示例表示“错误程度”的数目的,而不管是
交叉
熵
。ArcFace,和Softmax一样,是输出层的激活
函数
。 这是对的吗?如果是这样的话,为什么Arcface和Softmax被称为
损失
函数
?如果不是,我的困惑会从何而来?
浏览 5
提问于2019-12-17
得票数 2
1
回答
在使用完全卷积网络的语义分割中,为什么
交叉
熵
损失
比L1或L2
损失
更受欢迎?
、
、
我正在训练一个具有编码器-解码器架构的完全卷积网络,用于图像分割任务,目前正在使用二进制
交叉
熵
损失
进行前景/背景预测。 我试图搜索和阅读关于为什么使用
交叉
熵
损失
而不是L1或L2
损失
的信息。
交叉
熵
损失
不能捕获图像的整体布局,而L1和L2考虑了整体图像重建。
浏览 2
提问于2019-09-10
得票数 0
1
回答
为什么绝对
交叉
熵
损失
与NLP评分无关?
、
训练过程中,模型
损失
(绝对
交叉
熵
)降低,但当我测量bleu、METEOR、ROUGE、CIDEr和SPICE分数时,
损失
最大的时期是第一个
损失
最大的时期。我不明白为什么会发生这种事?如果绝对
交叉
熵
不是自动编码器合适的
损失
函数
,那么我应该使用什么呢?
浏览 0
提问于2019-06-11
得票数 3
1
回答
二元
交叉
熵
是如何工作的?
、
、
、
、
在将汇总数据传递到逻辑
函数
(在范围$$中规范化)之前,必须对权重进行优化,以获得预期的结果。为了为分类目的寻找最优权重,必须找到相对最小的误差
函数
,这可以是cross
熵
。据我所知,
交叉
熵
测量两个概率分布之间的量化,由位两种概率分布的同一事件集之间的差异来衡量。$$H(p,q)=-\sum_{x}p(x)\
浏览 0
提问于2018-07-13
得票数 5
回答已采纳
1
回答
二元
交叉
熵
损失
、
、
当我们有一个二进制分类问题时,我们在输出layer+中使用一个sigmoid激活
函数
--二进制
交叉
熵
损失
。正如我们所知道的,二元
交叉
熵
损失
的数量是log(y_pred),这意味着对于属于0类的样本,我们可以有log(0)。但是,log(0)是未定义的!那么,二进制
交叉
熵
如何仍然是可计算的?对于多分类问题,softmax+分类
交叉
熵
也是如此。
浏览 0
提问于2022-10-25
得票数 0
1
回答
如果模型输出层有多个神经元,并且只有一个值可预测,那么Tensorflow模型如何计算
损失
?
、
怎样才能计算
损失
呢?它是试图使每个输出尽可能接近目标值,还是做某种平均?
浏览 7
提问于2021-12-16
得票数 1
4
回答
为什么不使用均方误差来解决分类问题呢?
、
、
、
、
我正在努力找出正确的网络
损失
函数
。问题是,当我使用二元
交叉
熵
作为
损失
函数
时,训练和测试的
损失
值要比使用均方误差(MSE)
函数
要高。我不知道如何证明这些结果是合理的。为什么不使用均方误差来解决分类问题呢?
浏览 0
提问于2019-05-06
得票数 11
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
最小化交叉熵损失与求极大似然
详解机器学习中的熵、条件熵、相对熵、交叉熵
KL散度和交叉熵的对比介绍
机器学习漫谈:损失函数
DL笔记:Cost function 损失函数
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券