腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
学习后保存模式的培训停滞不前了吗?
、
、
、
我使用PyTorch训练单层神经网络,并在验证
损失
减少
后保存模型。一旦网络完成了培训,我就加载保存的模型,并通过测试集特性(而不是上一个时代的模型)来查看它的性能。然而,更多的情况是,在大约150个时代之后,验证
损失
将停止下降,我担心网络正在过度拟合数据。如果验证
损失
在一些迭代中没有
减少
(例如,在5次迭代之后),那么在培训期间加载保存的模型更好吗?另外,对于如何避免验证
损失
停止
减少
的情况,有什么建议吗?我曾经有过一些模型,即使在500个年代之后,验证
损失</em
浏览 5
提问于2022-03-11
得票数 0
1
回答
验证
损失
和训练
损失
之间的差距
、
、
、
、
下面是我的CNN模型的验证
损失
和训练
损失
的图表。这是什么意思?模型不是过拟合,因为验证
损失
正在
减少
,但是模型是否有问题,因为两个函数之间存在差距? 我是个新手,所以请帮帮忙。
浏览 30
提问于2020-05-19
得票数 3
2
回答
损失
函数-在时代开始时
减少
了很多。
、
、
当我训练我的模型时,在这个时代的早期(前20 %),
损失
减少
了很多。然后在其余的时期(最后的80%),
损失
是非常稳定的,并且在下一个时代之前不会有太大的变化。它也做同样的事。我正试着得到最好的
损失
函数。我使用的
损失
函数只是一个简单的均方误差(MSE)。我也在使用Adam优化器。有没有办法加快这一进程(比如提前停止
浏览 0
提问于2020-05-19
得票数 2
回答已采纳
1
回答
训练
损失
减少
,验证
损失
没有
减少
、
、
、
、
我想知道为什么这个回归问题的验证
损失
没有
减少
,而我已经实现了几种方法,例如简化模型、添加早期停止、不同的学习速率,以及正则化,但这些方法都没有正常工作。如有任何建议,将不胜感激。
浏览 0
提问于2022-05-21
得票数 0
1
回答
如何使用密集神经网络堆叠XGBOOST模型
、
、
我已经使用XGBOOST来
减少
对数
损失
,我还尝试了密集神经网络来
减少
对数
损失
,它似乎也工作得很好。现在,有没有一种方法可以将这两个模型堆叠在一起,以便进一步
减少
日志
损失
。
浏览 1
提问于2020-03-07
得票数 1
1
回答
神经网络中的
减少
(相对滞后)过拟合
、
、
、
、
在神经网络中,正则化(如L2、退出)通常被用来
减少
过度拟合。例如,下面的情节显示了典型的
损失
相对于时代,有和没有辍学。实线=列车,虚线=验证,蓝色=基线(无辍学),橙色=与辍学。正则化延迟了验证
损失
开始增加的时代,但正则化显然没有降低验证
损失
的最小值(至少在我的模型和教程中是如此)。如果我们在验证
损失
最小时使用早期停止训练(以避免过度拟合),如果正则化只是延迟最小验证
损失
点(相对于降低最小验证
损失
值),那么正则化似乎不会导致泛化程度更高的网络,而只是减慢了训练速度。如何
浏览 0
提问于2019-09-11
得票数 1
回答已采纳
1
回答
在Keras中自定义
减少
每个批次的
损失
、
、
、
我有一个自定义的
损失
函数,它为批次中的每个样本返回一个数字(因此,长度=批次大小的向量)。我如何还可以指定自定义的
减少
方法,以将这些样本
损失
聚合为整个批次的单个
损失
?在自定义
损失
函数中包含此
减少
,并让此函数仅返回单个标量而不是
损失
向量,这是可以接受的吗?
浏览 28
提问于2021-10-14
得票数 0
1
回答
我的模特不合身吗,tensorflow?
、
、
、
、
我的
损失
先是
减少
了几个时期,然后开始增加,然后上升到某个点,然后停止移动。我想现在它已经趋同了。现在,我们可以说我的模型不够合适吗?因为我的解释是,(幻灯片93 )如果我的
损失
下降,然后增加,这意味着我有一个较高的学习率,每两个时代我就会衰退一次,因此,在经历了几个时代的
损失
之后,因为现在的学习率很低,因为我的学习率还在下降,现在的
损失
应该重新开始
减少
我们能不能说,由于我的模型不合适,
损失
不会进一步
减少
吗?
浏览 3
提问于2016-08-30
得票数 0
回答已采纳
1
回答
我应该使用
损失
或准确性作为早期停止的标准吗?
、
、
、
我正在学习和试验神经网络,并希望从更有经验的人那里获得以下问题的意见:
损失
:(绿色=瓦尔,蓝色=火车] 准确性:(绿色=
浏览 1
提问于2016-05-10
得票数 13
1
回答
用于二进制分类的Face_Recognition
由于我已经开始训练,每个时期的训练
损失
都在
减少
,因此每个时期之后训练的准确性都会提高。如何改进这一点,如何
减少
验证
损失
?
浏览 17
提问于2020-02-22
得票数 0
1
回答
LSTM
损失
函数的数量是否有任何标准或正常范围?
、
我是在一个LSTM网络工作,我得到了4.7e-4左右的
损失
金额.似乎增加了更多的层数和增加的时间并不能帮助
减少
它。我想知道这个
损失
金额吗?这是大的还是OK>有什么经验法则的
损失
? 为什么我不能
减少
我的
损失
?这里有什么问题吗?
浏览 0
提问于2019-02-27
得票数 1
1
回答
mongodb数据文件的最小大小是多少
--oplogSize 16--nojournal 将大小
减少
到32M,但文档称这“在某些情况下将缩短启动时间,但在正常操作期间可能会导致显着的性能
损失
。”这真的是mongoDB的最小起始
数据库
大小吗?
浏览 0
提问于2012-11-01
得票数 3
回答已采纳
1
回答
解释验证
损失
、
、
、
我是神经网络的新手,我不知道如何准确地解释我得到的验证
损失
的结果。我正在尝试使用tensorflow对图像进行分类。如果我绘制每个时期之后得到的结果,我会得到以下结果:enter image description here 我的训练精度和验证精度提高了,我的训练
损失
减少
了,但验证
损失
虽然下降了一些,但并不是非常接近训练
损失
我不理解验证
损失
的变化。验证
损失
没有像训练
损失
减少
那么多的事实是否意味着我有过度拟合? (以防万一,我做了25个
浏览 53
提问于2020-08-11
得票数 1
回答已采纳
1
回答
Pytorch中多输出模型的
损失
、
、
我在PyTorch中有一个多输出模型,当我使用相同的
损失
训练它们,然后反向传播时,我合并了两个输出的
损失
,但当一个输出
损失
减少
时,其他输出
损失
增加,以此类推。我如何解决这个问题?loss1 = NLLL(out1, target1)loss = loss1 + loss2 loss.backward() 当loss1
减少
时,loss2增加,当loss2
减少
时,loss1增加,我如何解决这个问题。是否可以使用
浏览 21
提问于2019-07-02
得票数 3
1
回答
批的Keras培训:是在每个优化步骤之前还是之后计算培训
损失
?
、
、
、
我问这个问题的原因是:我在训练一个网络,并且看到训练
损失
(两个嵌入的MSE)会像预期的那样
减少
(几个数量级),但是验证
损失
保持不变。首先,我认为这可能是由于过度适应。因此,由于训练数据集相当大(200 k图像),我决定
减少
时代大小,以便能够更经常地看到评估的验证集,从而导致比训练size /batchSize更小的历元。即使在那时,我也看到训练
损失
从一个时代
减少
到另一个时代(验证
损失
仍然保持不变),我觉得这很有趣,因为网络仍然处于第一次看到培训数据的阶段。那么
浏览 0
提问于2018-02-27
得票数 6
回答已采纳
2
回答
为什么随着我递增地增加更多的培训数据,培训和测试
损失
都会
减少
?
、
我试着递增地添加培训数据,并列出测试和培训的
损失
。结果如下, 很高兴看到测试
损失
正在
减少
,但正如我在Andrew Ng的ML类中了解到的那样,如果我有一个像DNN这样的强大模型,那么训练
损失
应该会随着我递增地添加更多的训练数据而增加,而测试
损失
应该会
减少
浏览 3
提问于2017-03-30
得票数 4
回答已采纳
1
回答
tensorflow是否可以单独优化每个元素的
损失
,而不是优化整个平均
损失
?
、
、
tensorflow如何单独优化批次的元素
损失
,而不是优化批次
损失
? 在对每个批次的
损失
进行优化时,常用的方法是对所有批次的元素
损失
进行求和或取其平均值作为批次
损失
,然后对该批次
损失
进行优化。在我的例子中,我想单独优化每个元素的
损失
,而不是将它们一起
减少
为批量
损失
。 例如,在以下代码中。(通过这种方式,小批量实际上
减少
到批大小为1的情况。)我直接将
损失
降到最低,如下所示: optim = tf.nn
浏览 17
提问于2019-04-19
得票数 0
2
回答
如何解释Tensorflow DNNRegressor估计模型的
损失
函数?
、
、
、
、
但是,调用estimator.train()函数会提供如下输出:也就是说,我的
损失
函数每一步都有很大的变化。但据我所知,我的
损失
函数应该随着迭代次数的
减少
而减小。另外,请查找随附的Tensorboard可视化屏幕截图以显示丢失功能:我无法弄清楚的疑问是: 是整体
损失
函数值(到目前为止处理的每一步的综合
损失
)还是仅仅是该步骤的
损失
值?如果是这一步的
损失
值,那么如何得到整体
损失
函数的值,并看到它的趋势,我觉得应该随着迭代次数的增
浏览 3
提问于2017-10-03
得票数 5
回答已采纳
1
回答
损失
图中的步长是什么意思?
、
、
我发现一些论文(Resnet论文)的图表如下: 正如您所看到的,随着迭代次数的增加,
损失
逐渐
减少
。但在某些时候(红色箭头),
损失
会迅速
减少
(作为一个步骤)。这一点是什么?它是否改变了学习率点?
浏览 0
提问于2017-06-11
得票数 1
2
回答
MLPRegressor的
损失
历史记录
、
我正在使用MLPRegressor来解决一个问题,并希望绘制
损失
函数,即在每个训练时期
损失
减少
了多少。但是,MLPRegressor可用的属性model.loss_只允许访问最后一个
损失
值。是否有可能访问整个
损失
历史记录?
浏览 2
提问于2017-08-03
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
直播带货让服装人减少损失!4000亿损失裁员举动连连!
OZON卖家遇到买家申请退货如何减少损失
施耐德电气:减少技术损失的明智策略是什么?
如何应用企业微信的客户继承功能,减少损失
怎么最大限度减少骏网泰岳卡损失
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券