腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
损失
会
减少
,
而
准确率
保持
不变
?
python
、
tensorflow
、
keras
、
deep-learning
我使用二进制交叉熵作为我的
损失
和优化器的标准SGD。当我训练时,训练和验证
损失
继续下降,但准确性和验证精度
保持
不变
。24,514,818_________________________________________________________________ 我预计要么两个
损失
都会
减少
,
而
两个精度都会增加,要么网络
会
过拟合,验证
损失
和准确性不会有太大变化。无论哪种方式,
浏览 347
提问于2019-08-12
得票数 6
回答已采纳
1
回答
用于二进制分类的Face_Recognition
deep-learning
由于我已经开始训练,每个时期的训练
损失
都在
减少
,因此每个时期之后训练的准确性都会提高。如何改进这一点,如何
减少
验证
损失
?
浏览 17
提问于2020-02-22
得票数 0
1
回答
训练
损失
正在
减少
,但
准确率
保持
不变
deep-learning
、
nlp
、
pytorch
、
classification
、
bert-language-model
我的问题是:
为什么
训练
损失
在逐步
减少
,
而
准确率
却没有增加那么多?实际上,精度在迭代4之前是增加的,但是训练
损失
是
减少
的,直到最后一个时期( iterate )。这是正常的,还是应该有问题?
浏览 594
提问于2021-01-17
得票数 0
1
回答
为什么
损失
继续
减少
,
而
性能
保持
不变
?
nlp
、
pytorch
、
bert-language-model
bert-lstm-crf模型经过25个时期的训练后,在训练集、开发集和测试集上的性能
保持
不变
,但
损失
继续
减少
。我应该在哪里做改变?0.4547738693467337, 0.45080946450809467) base_result_loc, loss, train
浏览 18
提问于2019-05-01
得票数 1
1
回答
使用torch.floor()修改预测后
损失
不会
减少
pytorch
对于下面的代码,
损失
会
减少
。loss_function=nn.MSELoss()但是,如果我用floor函数更改pred,
损失
将
保持
完全
不变
。loss_function=nn.MSELoss()
为什么
会发生这种事?
浏览 0
提问于2020-07-21
得票数 1
回答已采纳
2
回答
dropout能否提高训练数据的性能?
neural-network
、
deep-learning
、
training-data
、
loss-function
、
dropout
当我将dropout从0.9
减少
到0.7时,训练数据数据的
损失
(交叉验证误差)也
会
减少
。我还注意到,当我
减少
dropout参数时,
准确率
会
增加。 这对我来说似乎很奇怪。这有意义吗?
浏览 3
提问于2019-11-26
得票数 2
1
回答
keras CNN的Loss & val_loss
keras
、
conv-neural-network
、
loss-function
在120k图像上进行20个时期的训练,开始时
损失
约4.9,val_loss约为4.6,经过20个时期后,
损失
分别提高到3.3和3.2。我的意思是
损失
分数代表了什么?它对这个模型说了什么?
浏览 6
提问于2018-02-10
得票数 0
3
回答
Tensorflow:
损失
减少
,但精度稳定
tensorflow
、
neural-network
、
deep-learning
、
conv-neural-network
、
convolution
在我以前使用神经网络的经验中,我总是训练到
损失
非常接近于0(远低于1)。然而,我们现在正在评估我们的模型在训练期间使用验证集(在单独的GPU上),似乎精度在大约6.7k步长后停止增加,
而
损失
在超过40k步长后仍在稳步下降。这是由于过度拟合造成的吗?一旦
损失
非常接近于零,我们是否应该期望看到
准确率
的另一个峰值?当前的最大精度是不可接受的。我们应该杀了它,然后继续调优吗?你有什么建议吗?以下是我们修改后的训练过程的代码和图表。
浏览 2
提问于2017-04-19
得票数 29
2
回答
损失
函数在
减少
,
而
度量函数
保持
不变
?
python
、
tensorflow
、
keras
、
image-segmentation
、
semantic-segmentation
由于数据集高度不平衡,我使用
损失
函数作为(1 -加权骰子系数)和度量函数作为骰子系数。我已经将数据集从0-255规范化为0-1。我正在使用带有tensorflow后端的keras来训练模型。在训练UNet++模型时,我的
损失
函数随着时间的推移
而
减小,但我的度量
保持
不变
。我无法理解
为什么
公制是
不变
的,因为
损失
正在按预期
减少
?另外,我无法理解,当骰子系数返回0到1之间的值时,
为什么
损失
大于1? 这是我的
浏览 0
提问于2019-01-18
得票数 11
2
回答
小批量比批量梯度下降性能差吗?
deep-learning
、
neural-network
在批处理gd中,我能够获得100%的训练和97%的dev/cv
准确率
。然而,在128号的小批量中,我在这两种情况下的
准确率
都只有88%左右。训练
损失
似乎在1.6%左右,并且不会随着任何进一步的迭代
而
减少
,但当我增加批量大小(从而提高精度).And时,它会慢慢
减少
。最终,为了获得最大精度,我达到了37000的批量大小。我试着调整alpha,但仍然
保持
同样的准确度。 我正在训练mnist数字数据集。 可能的原因是什么?请帮帮忙
浏览 31
提问于2020-07-11
得票数 1
1
回答
验证
损失
和训练
损失
减少
,
而
准确性
保持
不变
。
python
、
tensorflow
当我运行它时,我的准确度总是在50%左右,
损失
减少
。这与验证
损失
验证的准确性是一样的。验证
损失
不断减小,但验证精度始终为.45。
浏览 11
提问于2022-01-22
得票数 0
1
回答
训练后
损失
和
准确率
保持
不变
python-3.x
、
tensorflow
、
keras
、
deep-learning
、
lstm
当我训练我的模型时,
损失
和准确性
保持
不变
。在这种情况下,通常的问题是什么?
浏览 2
提问于2020-05-20
得票数 0
1
回答
低
损失
和相同预测等级的原因?
deep-learning
、
loss-function
、
accuracy
我使用了128批大小,
损失
正在
减少
,准确度随着时间的推移
而
增加。最终精度达到0.99以上,
损失
小于0.3。但再过几个年代,该模型收敛到了0.6,精度下降了0.5。对模型的检验表明,它总是预测0.5。我用二元交叉熵作为
损失
函数。对于每一个时代,所有的数据点都会被洗牌。我用的是SGD,学习率是0.01。 我是否以较低的
准确率
,但相当好的
损失
值,达到了局部最小值?建议采取什么办法来处理这一问题?此外,
为什么
有可能有一个低
损失
函数与一个单一的
浏览 0
提问于2018-03-01
得票数 0
回答已采纳
1
回答
批的Keras培训:是在每个优化步骤之前还是之后计算培训
损失
?
python
、
deep-learning
、
keras
、
loss-function
我问这个问题的原因是:我在训练一个网络,并且看到训练
损失
(两个嵌入的MSE)
会
像预期的那样
减少
(几个数量级),但是验证
损失
保持
不变
。首先,我认为这可能是由于过度适应。因此,由于训练数据集相当大(200 k图像),我决定
减少
时代大小,以便能够更经常地看到评估的验证集,从而导致比训练size /batchSize更小的历元。即使在那时,我也看到训练
损失
从一个时代
减少
到另一个时代(验证
损失
仍然
保持</em
浏览 0
提问于2018-02-27
得票数 6
回答已采纳
1
回答
在纪元训练期间,准确性的突然提高表明了我的模型的哪些方面?
python
、
neural-network
、
tensorflow2.0
、
conv-neural-network
在训练数据时,我注意到,尽管最初的
准确率
逐渐提高,但两者之间有一个巨大的跃升,即从0.8984到0.9814。 作为一个初学者,我想调查一下我的模型在这次跳跃中到底展示了什么。
浏览 2
提问于2020-09-26
得票数 0
1
回答
加入数据点对SVM V.S.Softmax
损失
的影响
machine-learning
、
svm
、
softmax
、
packet-loss
是否可以在训练集中添加一个新的数据点,使SVM
损失
保持
不变
,
而
不是使Softmax分类器
损失
保持
不变
?
浏览 2
提问于2018-04-16
得票数 2
回答已采纳
2
回答
一个正常的精度图有多少跳跃?
python
、
tensorflow
、
machine-learning
在4个班级上训练一个模型,并使用TensorBoard跟踪结果。我的Graph如下所示:绿线: val精确度您可以看到,我的val acc图跳跃得很快。这是正常的吗?
浏览 2
提问于2020-08-13
得票数 1
2
回答
弄清楚
损失
和精确曲线
deep-learning
、
classification
、
training
、
loss-function
、
accuracy
损失
(在这种情况下是交叉熵)和不合理的精确图。下面是一个示例:在这里,我正在CIFAR10上训练一个CIFAR10。最初,这些曲线都很好,很好;这意味着训练和验证
损失
在
减少
,准确性也在增加。在120 (其中LR
减少
)之后,val。
损失
和准确性开始改善几个时代(绿色盒子)。
为什么
降低学习率
会
突然提高模型的验证性能,这个
浏览 0
提问于2020-08-19
得票数 3
1
回答
验证
损失
达到最小,然后增加
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
可以看出,在60年代左右,我的验证
损失
开始增加,而我的验证精度
保持
不变
。它似乎在那个时候开始过拟合,但是如果它只是简单地记住我的训练数据,那么训练
损失
不会继续
减少
到几乎为零吗?layer 我的训练数据形状: x:(1038,2206) y:(1038,1) 我的参数: 纪元= 300 LR = 1e-3 DROPOUT = 0.5 BATCH_SIZE = 128 另外,我的验证
准确率
约为
浏览 16
提问于2020-12-31
得票数 0
1
回答
为什么
开采困难,天然气价格上涨,但仍有一些交易失败?
gas
、
nft
、
hash
、
difficulty
基于上述假设,我有以下问题:在交易需求较高的情况下,煤气费为何
会
如此高昂?总体来说,
为什么
他们总是这么高?如果困难增加,意味着矿工/计算能力增加,交易需求也随之增加,这是否应该是线性的,比率是否
保持
不变
,费用应该
保持</e
浏览 0
提问于2022-01-19
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度可逆网络i-RevNet:信息丢弃不是泛化的必要条件
《Machine Learning for Humans》第二章:监督学习(一)
机器学习笔试题精选(二)
梯度下降之步长详解
深度学习中Dropout原理解析
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券