腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5616)
视频
沙龙
1
回答
交叉
熵
和
对数
损失
误差
有
什么区别
?
、
、
交叉
熵
和
对数
损失
误差
有
什么区别
?两者的公式似乎非常相似。
浏览 7
提问于2018-06-19
得票数 27
回答已采纳
2
回答
SparseCategoricalCrosstentropy对sparse_categorical_crossentropy
、
、
SparseCategoricalCrosstentropy
和
sparse_categorical_crossentropy
有
什么区别
?SparseCategoricalCrossentropy:计算标签
和
预测之间的
交叉
熵
损失
。 但我还是不确定。任何
损失
都会在标签
和
预测之间进行计算。那这两个
浏览 0
提问于2020-07-10
得票数 1
回答已采纳
1
回答
神经网络与异或分类
、
我在某个地方读到,均方
误差
损失
有利于回归,
交叉
熵
损失
用于分类。 作为激活函数,我使用logsig。
浏览 4
提问于2017-09-03
得票数 0
1
回答
二元
交叉
熵
是如何工作的?
、
、
、
、
为了为分类目的寻找最优权重,必须找到相对最小的
误差
函数,这可以是cross
熵
。$$H(p,q)=-\sum_{x}p(x)\,log_e(q(x))$$ 据我所知,如果我们期望函数的二元结果,那么对Bernoulli
浏览 0
提问于2018-07-13
得票数 5
回答已采纳
2
回答
在Keras
和
TensorFlow中,所有这些
交叉
熵
损失
有
什么区别
?
、
、
、
、
所有这些
交叉
熵
损失
之间
有
什么区别
?凯拉斯在说 他们之间的区
浏览 4
提问于2017-06-21
得票数 40
回答已采纳
5
回答
我应该在我的LSTM中使用哪种丢失功能?为什么?
、
、
、
我试图一步一步地理解Keras
和
LSTM。现在,我构建了一个LSTM,输入是一个句子,输出是一个由五个值组成的数组,每个值可以是0或1。现在,我只知道两个预定义的
损失
函数稍微好一点,这两个函数似乎都不适合我的例子: 二进制
交叉
熵
:好的,如果我的输出只有0或1,分类
交叉
熵
:好的,如果我
有
一个数组的输出,其中1
和
所有其他值为0。
浏览 0
提问于2019-02-23
得票数 1
回答已采纳
6
回答
是否可以为逻辑回归定义自己的成本函数?
、
、
当我们进行逻辑回归时,我们将成本函数更改为
对数
函数,而不是将其定义为sigmoid函数(输出值)与实际输出之间的差值的平方。 是否可以更改
和
定义我们自己的成本函数来确定参数?
浏览 2
提问于2012-08-28
得票数 22
回答已采纳
4
回答
为什么不使用均方
误差
来解决分类问题呢?
、
、
、
、
我正在努力找出正确的网络
损失
函数。问题是,当我使用二元
交叉
熵
作为
损失
函数时,训练
和
测试的
损失
值要比使用均方
误差
(MSE)函数要高。我不知道如何证明这些结果是合理的。为什么不使用均方
误差
来解决分类问题呢?
浏览 0
提问于2019-05-06
得票数 11
回答已采纳
1
回答
使用N列作为N分类或使用1列具有多个值
、
、
在处理神经网络输出时,我发现了两种将输出表示为神经网络的不同方法:1 // class A10 // class B1 // class A使用2列作为不同的分类1 0 // class A1 0 // class A如果我错了,请纠正我,或者告诉我
浏览 0
提问于2017-04-24
得票数 -1
3
回答
MSE
损失
与
交叉
熵
损失
的收敛性比较
、
、
、
、
对于一个目标向量0,0,0,....0
和
预测向量0,0.1,0.2的简单分类问题,....1的
交叉
熵
损失
会更好/更快地收敛,还是MSE
损失
?当我绘制它们时,在我看来,MSE
损失
有
一个较低的
误差
范围。
浏览 0
提问于2018-03-16
得票数 3
回答已采纳
1
回答
为什么绝对
交叉
熵
损失
与NLP评分无关?
、
我正在训练一个由一个CNN
和
三个GRUs组成的图像字幕的深层网络。训练过程中,模型
损失
(绝对
交叉
熵
)降低,但当我测量bleu、METEOR、ROUGE、CIDEr
和
SPICE分数时,
损失
最大的时期是第一个
损失
最大的时期。我不明白为什么会发生这种事?如果绝对
交叉
熵
不是自动编码器合适的
损失
函数,那么我应该使用什么呢?
浏览 0
提问于2019-06-11
得票数 3
2
回答
在penn treebank上计算训练LSTM的困惑
、
、
我为每个时间步添加
损失
,然后计算困惑。
损失
本身减少了,但最多只能减少到20左右。(我需要一位数的数字来表示
损失
,以获得合理的困惑)。它是否应该基于每个时间步的
损失
,然后进行平均,而不是将它们全部相加? 我的batch_size是20,num_steps是35。
浏览 41
提问于2017-12-29
得票数 9
回答已采纳
1
回答
Keras "acc“度量-一种算法
、
、
在Keras中,我经常看到人们用均方
误差
函数
和
"acc“作为度量标准来编译模型。如果我将我的
损失
函数更改为二进制
交叉
熵
作为一个例子,并使用'acc‘作为度量标准呢?这是与第一种情况相同的度量标准,还是Keras基于
损失
函数改变这个acc -所以在这种情况下是二进制
交叉
熵
?
浏览 0
提问于2019-03-13
得票数 1
回答已采纳
1
回答
如何用Pytorch计算语言模型的困惑
、
、
但我不知道如何利用
损失
来做到这一点。我想知道如何计算模型的困惑与sum_loss或平均
损失
或任何其他建议也是欢迎的。任何帮助都是徒劳无功。loss.backward()给出的是我如何计算每一批数据的
损失
, -75.0798, -75.7507, -54.0160]]],上面给出的是仅打印一批
损失
浏览 0
提问于2020-05-24
得票数 3
回答已采纳
1
回答
GRU
损失
降至0.9,但不会进一步下降,PyTorch
、
、
、
、
tensor([4.8500e-01, 9.7813e-06, 5.1498e-01, 6.2428e-06, 7.5929e-06], grad_fn=<SelectBackward>)
损失
为对于这些简单的输入数据,GRU
损失
是如此之大。原因何在?这段代码中有什么错误吗?我使用cross_entropy作为
损失
函数,使用Adam作为优化器。学习率为0.001。我添加了批量归一化,它加快了训练速度,但
损失
和准确率相同。为什么
损失
不会减少到0.2或更多。
浏览 40
提问于2020-10-15
得票数 2
回答已采纳
1
回答
如何在Torch中自定义损耗函数?
我目前使用的是Torch 7,我需要定制
损失
函数,特别是
交叉
熵
误差
函数。 我正在考虑向
交叉
熵
误差
函数添加一些参数,但我找不到我应该修改哪个部分。
浏览 2
提问于2017-03-06
得票数 0
1
回答
回归
损失
函数在My分类模型上的完善
、
、
、
、
二值
交叉
熵
和
范畴
交叉
熵
在这两种情况下都造成了很差的
损失
和精度,而使用最小
熵
和
最大
熵
的
误差
分别为98%
和
0.004。 为什么会发生这种情况,尽管我使用了3个输出标签来监督学习数据,如下图所示:
浏览 9
提问于2022-10-01
得票数 -2
1
回答
caffe中回归背后的理论
、
、
、
我知道我们
有
一个
损失
函数,但这适用于什么呢? 我的意思是,对于具有
损失
层的Softmax,我们
有
一个Softmax函数,并应用
交叉
熵
损失
来确定我们的更新。我要找的是欧几里得
损失
的“软最大函数”。
有
小费吗?我已经看过Caffe层的解释,但这里只是说,平方
误差
之和被用作
损失
函数。
浏览 1
提问于2017-03-16
得票数 0
回答已采纳
2
回答
如何计算tensorflow中RNN的困惑
、
、
、
以下是训练中的代码,显示了每个时期的训练
损失
和其他情况: sess.run
浏览 0
提问于2017-01-27
得票数 10
回答已采纳
1
回答
哪一个是正确的YOLOv4全
损失
函数公式?
、
、
、
我在主要的YOLOv4论文中找不到总
损失
函数。然而,我从两篇不同的论文中发现了两个不同的公式(在下面的图像中突出显示/标记了差异)。哪个公式是正确的YOLOv4?
浏览 1
提问于2021-04-01
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习中常用的损失函数
机器学习中常用的损失函数你知多少?
训练深度学习神经网络的常用5个损失函数
transformer 模型的损失函数
最小化交叉熵损失与求极大似然
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券