腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
损失
继续
减少
,
而
性能
保持
不变
?
、
、
bert-lstm-crf模型经过25个时期的训练后,在训练集、开发集和测试集上的
性能
保持
不变
,但
损失
继续
减少
。我应该在哪里做改变?以下是
性能
: 第25个纪元: tensor(10267.6279, device='cuda:0')(0.458715
浏览 18
提问于2019-05-01
得票数 1
1
回答
用于二进制分类的Face_Recognition
由于我已经开始训练,每个时期的训练
损失
都在
减少
,因此每个时期之后训练的准确性都会提高。如何改进这一点,如何
减少
验证
损失
?
浏览 17
提问于2020-02-22
得票数 0
1
回答
为什么
损失
会
减少
,
而
准确率
保持
不变
?
、
、
、
我使用二进制交叉熵作为我的
损失
和优化器的标准SGD。当我训练时,训练和验证
损失
继续
下降,但准确性和验证精度
保持
不变
。24,514,818_________________________________________________________________ 我预计要么两个
损失
都会
减少
,
而
两个精度都会增加,要么网络会过拟合,验证
损失
和准确性不会有太大变化。无论哪种方式,
浏览 347
提问于2019-08-12
得票数 6
回答已采纳
1
回答
班级分布差异培训/验证。失去现在无法解释?
、
、
为了抵消这个不平衡的数据,我用类概率的反比(1/(类的比例))来加权
损失
。这意味着,对于少数族裔阶层来说,
损失
会成倍增加。这确实有助于消除阶级不平衡。 但是,对于此加权
损失
,我使用训练数据集中的比例。这使得对验证数据的加权
损失
无法解释。有什么办法可以抵消这一点吗?例如,为火车/验证集(基于它们各自的分布)提供单独的权重会有帮助吗?
浏览 0
提问于2018-04-25
得票数 2
回答已采纳
2
回答
损失
函数在
减少
,
而
度量函数
保持
不变
?
、
、
、
、
由于数据集高度不平衡,我使用
损失
函数作为(1 -加权骰子系数)和度量函数作为骰子系数。我已经将数据集从0-255规范化为0-1。我正在使用带有tensorflow后端的keras来训练模型。在训练UNet++模型时,我的
损失
函数随着时间的推移
而
减小,但我的度量
保持
不变
。我无法理解
为什么
公制是
不变
的,因为
损失
正在按预期
减少
?另外,我无法理解,当骰子系数返回0到1之间的值时,
为什么
损失
大于1? 这是我的
浏览 0
提问于2019-01-18
得票数 11
1
回答
验证
损失
和训练
损失
减少
,
而
准确性
保持
不变
。
、
当我运行它时,我的准确度总是在50%左右,
损失
减少
。这与验证
损失
验证的准确性是一样的。验证
损失
不断减小,但验证精度始终为.45。
浏览 11
提问于2022-01-22
得票数 0
3
回答
停止训练我的神经网络可以吗?
、
当我试图训练的神经网络的验证误差慢慢减小,但没有太多的
减少
时,是否可以在这一点上停止训练,还是需要增加训练时间直到达到最小的验证误差?633.5318因此,与第4和第5周期相比,损耗
减少
了
浏览 0
提问于2020-03-13
得票数 0
回答已采纳
2
回答
弄清楚
损失
和精确曲线
、
、
、
、
损失
(在这种情况下是交叉熵)和不合理的精确图。下面是一个示例:在这里,我正在CIFAR10上训练一个CIFAR10。最初,这些曲线都很好,很好;这意味着训练和验证
损失
在
减少
,准确性也在增加。在120 (其中LR
减少
)之后,val。
损失
和准确性开始改善几个时代(绿色盒子)。
为什么
降低学习率会突然提高模型的验证
性能
,这个
浏览 0
提问于2020-08-19
得票数 3
1
回答
使用torch.floor()修改预测后
损失
不会
减少
对于下面的代码,
损失
会
减少
。loss_function=nn.MSELoss()但是,如果我用floor函数更改pred,
损失
将
保持
完全
不变
。loss_function=nn.MSELoss()
为什么
会发生这种事?
浏览 0
提问于2020-07-21
得票数 1
回答已采纳
2
回答
这是一个过载的网络吗?
、
、
、
、
我有怀疑,因为我读过,过度拟合是产生时,一个网络是过度训练,它发生时,验证
损失
增加。以这种方式拆分单个数据集: 2000时代训练 培训
损失
: 3.1711e-05验证
损失
浏览 5
提问于2017-04-03
得票数 2
1
回答
加入数据点对SVM V.S.Softmax
损失
的影响
、
、
、
是否可以在训练集中添加一个新的数据点,使SVM
损失
保持
不变
,
而
不是使Softmax分类器
损失
保持
不变
?
浏览 2
提问于2018-04-16
得票数 2
回答已采纳
1
回答
我应该使用
损失
或准确性作为早期停止的标准吗?
、
、
、
我正在学习和试验神经网络,并希望从更有经验的人那里获得以下问题的意见:
损失
:(绿色=瓦尔,蓝色=火车]
浏览 1
提问于2016-05-10
得票数 13
11
回答
为什么
堆栈溢出仍然是一个问题?
、
、
为什么
我们,程序员,仍然有这个StackOverflow问题?
为什么
在每种主要语言中,线程堆栈内存都必须在线程创建时静态地分配?
为什么
?现代CPU是否存在一些根本限制,使其不可能/效率低下?如果您考虑到重新分配所带来的
性能
影响,这应该是可以接受的,因为人们总是使用像ArrayList这样的结构,
而
不会遭受太大的
损失
。所以,问题是,我是遗漏了什么,
而
StackOverflow不是一个问题,还是我遗漏了一些东西,并且有很多语言具有动态堆栈,或者这是不可能
浏览 4
提问于2010-07-10
得票数 43
回答已采纳
1
回答
我的型号太慢了,val_loss的叮当号是90
、
、
、
损失
的中位数为0.8。 拜托,你能给我建议一下我应该用什么型号吗?
浏览 7
提问于2022-11-26
得票数 -2
1
回答
批的Keras培训:是在每个优化步骤之前还是之后计算培训
损失
?
、
、
、
我问这个问题的原因是:我在训练一个网络,并且看到训练
损失
(两个嵌入的MSE)会像预期的那样
减少
(几个数量级),但是验证
损失
保持
不变
。首先,我认为这可能是由于过度适应。因此,由于训练数据集相当大(200 k图像),我决定
减少
时代大小,以便能够更经常地看到评估的验证集,从而导致比训练size /batchSize更小的历元。即使在那时,我也看到训练
损失
从一个时代
减少
到另一个时代(验证
损失
仍然
保持
不变</
浏览 0
提问于2018-02-27
得票数 6
回答已采纳
1
回答
如何使用tf.contrib.opt.ScipyOptimizerInterface获取
损失
函数历史记录
、
、
我需要获得一段时间内的
损失
历史,以便将其绘制在图形中。% 50 == 0: step += 1请参阅文档:“待优化的变量在优化结束时就地更新”。这是
损失
保持
不变
的原因吗?
浏览 192
提问于2017-06-22
得票数 6
回答已采纳
1
回答
RL代理的临界
损失
、
当我在执行各种问题的代理时.我看到我的演员
损失
正在如期
而
至地
减少
。但我的批评者
损失
保持
增长,即使政策是非常了解。这发生在DDPG,PPO等。 想一想
为什么
我的评论家的
损失
在增加。
浏览 3
提问于2019-09-19
得票数 2
回答已采纳
2
回答
Keras:验证精度
保持
不变
,但验证
损失
减少
。
、
、
、
、
y_train, batch_size=128, epochs=500, verbose=1, shuffle=True, validation_data=(x_test, y_test)) 我的两个
损失
都
减少
了,我的训练精度提高了,但是验证精度
保持
在50% (考虑到我正在做一个二进制分类模型,这太糟糕了)。
浏览 2
提问于2020-05-03
得票数 5
回答已采纳
2
回答
交叉熵
损失
是否重要,因为在反向传播时,只有Softmax概率和一个热向量是相关的?
、
、
、
交叉熵
损失
(CEL)是否重要,因为在反向传播(BP)中,只有Softmax (SM)概率和一个热向量是相关的? 在应用BP算法时,CEL的导数是输出概率(SM)与热编码向量之间的差值。
浏览 0
提问于2019-07-20
得票数 0
2
回答
tf.keras损耗变为NaN
、
、
、
、
我
减少
了数据集中的示例数,因此运行时更低。每个时代的
损失
和准确度
保持
不变
。通常
损失
为2.3025,准确度为0.0986。
损失
从NaN开始(并
保持
这种方式),
而
准确性则
保持
在低水平。编辑:有时,
损失
减少
,但准确性
保持
不变
。此外,有时
损失
减少
,精度提高,但经过一段时间,精度下降,
而
损失
仍在下
浏览 0
提问于2019-03-24
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
夏老师小课堂(8)影响电机尺寸的因素(1)提高磁性能
深度学习中的数学理解—教你深度学习背后的故事
“即使他跟别的女生卿卿我我,不回微信,但还是我的好男友”
《Machine Learning for Humans》第二章:监督学习(一)
1J77软磁合金磁性能和热导率分析
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券