腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9142)
视频
沙龙
1
回答
训练
损失
正在
减少
,
但
验证
损失
是
重要
的
。
如何
避免
过度
拟合
machine-learning
、
deep-learning
、
computer-vision
、
hyperparameters
、
overfitting-underfitting
我想重新
训练
谷歌
的
mediapipe手部地标,以便进行更多关键点检测,
但
该模型仅在tflite格式下可用,无法重新
训练
。我创建了一个与mediapipe手模型相同
的
模型,并用我
的
自定义数据对其进行了
训练
,
但
面临着
过度
拟合
的
问题, 我
正在
使用: RMSprop作为优化器 MSE (均方误差作为
损失
函数) 批量大小= 32初始学习率=1e-3 decay_steps=
浏览 20
提问于2021-08-03
得票数 0
1
回答
神经网络中
的
减少
(相对滞后)过
拟合
machine-learning
、
neural-network
、
deep-learning
、
regularized
、
dropout
在神经网络中,正则化(如L2、退出)通常被用来
减少
过度
拟合
。例如,下面的情节显示了典型
的
损失
相对于时代,有和没有辍学。实线=列车,虚线=
验证
,蓝色=基线(无辍学),橙色=与辍学。由Tensorflow教程提供
的
情节。 正则化延迟了
验证
损失
开始增加
的
时代,
但
正则化显然没有降低
验证
损失
的
最小值(至少在我<e
浏览 0
提问于2019-09-11
得票数 1
回答已采纳
1
回答
解释
验证
损失
tensorflow
、
validation
、
keras
、
loss
我
是
神经网络
的
新手,我不知道
如何
准确地解释我得到
的
验证
损失
的
结果。我
正在
尝试使用tensorflow对图像进行分类。如果我绘制每个时期之后得到
的
结果,我会得到以下结果:enter image description here 我
的
训练
精度和
验证
精度提高了,我
的
训练
损失
减少
了,
但
验证</
浏览 53
提问于2020-08-11
得票数 1
回答已采纳
1
回答
keras使用restore_best_weights提前停止,使用save_best_only和过
拟合
创建模型检查点
python
、
tensorflow
、
keras
这篇文章更多
的
是
要求咨询而不是要求解决问题。我知道keras、回调、提前弯腰和模型检查点可以防止过
拟合
。当我在restore_best_weights=True中使用早期
的
弯腰时,由于耐心较小,我有时会错过最好
的
模型,而当我在save_best_only =True中使用检查点回调时,我需要做很多时期。因此,我认为也许我会以更大
的
耐心使用提前停止,但我
的
问题
是
,在一些时期之后,我
的
验证
损失
是非常Z字
浏览 3
提问于2020-09-01
得票数 0
2
回答
这是一个过载
的
网络吗?
python
、
neural-network
、
artificial-intelligence
、
keras
、
training-data
我在keras中
训练
了一个神经网络,得到了这个结果,我想知道这是否太合适了。但在这种情况下,它并没有增加。它保持不变,
但
训练
损失
减少
。额外信息 30%
的
数据集用作
验证</
浏览 5
提问于2017-04-03
得票数 2
2
回答
为什么培训和
验证
类似的
损失
曲线会导致业绩不佳
machine-learning
、
classification
、
matlab
利用matlab
训练
二值分类神经网络模型,给出了在隐层中使用20个神经元得到
的
图。交叉熵与年代之间
的
混淆矩阵和图。WHy,这是
正在
发生
的</e
浏览 0
提问于2018-05-19
得票数 3
1
回答
学习后保存模式
的
培训停滞不前了吗?
python
、
validation
、
neural-network
、
pytorch
我使用PyTorch
训练
单层神经网络,并在
验证
损失
减少
后保存模型。一旦网络完成了培训,我就加载保存
的
模型,并通过测试集特性(而不是上一个时代
的
模型)来查看它
的
性能。然而,更多
的
情况
是
,在大约150个时代之后,
验证
损失
将停止下降,我担心网络
正在
过度
拟合
数据。如果
验证
损失
在一些迭代中没有
减少
(例如
浏览 5
提问于2022-03-11
得票数 0
1
回答
减少
训练
损失
,稳定
的
验证
损失
-模型是否过
拟合
?
machine-learning
、
conv-neural-network
我
的
模型是不是太合适了?如果
验证
损失
大幅增加,而
训练
损失
减少
,我肯定它会
过度
拟合
。然而,
验证
损失
几乎
是
稳定
的
,所以我不确定。你能帮帮忙吗?
浏览 1
提问于2019-09-01
得票数 0
2
回答
有密集连接层
的
辍学
tensorflow
、
machine-learning
、
keras
、
deep-learning
、
densenet
我在我
的
一个项目中使用了一个密集
的
模型,并且在使用正则化时遇到了一些困难。 没有任何正则化,
验证
和
训练
损失
(MSE)都会
减少
。然而,
训练
损失
下降得更快,导致最终模型
的
一些
过度
拟合
。所以我决定用辍学来
避免
过度
适应。当使用Dropout时,
验证
和
训练
损失
在第一个时期
减少
到0.13左右,并且在大约1
浏览 3
提问于2020-04-05
得票数 2
回答已采纳
1
回答
验证
损失
仅在某些任务中更高
keras
、
neural-network
、
conv-neural-network
、
multitasking
我
正在
训练
一个多任务网络,对于某些任务,
验证
损失
似乎高于
训练
损失
,但对于其他任务,网络似乎收敛得很好。特别是对于一个任务,
验证
损失
比
训练
损失
要高得多,它会影响平均值。我添加了一些数据增强、归一化、丢失、批量规范等,以
避免
总体上
过度
拟合
。我该
如何
处理这个单一
的
任务?
浏览 13
提问于2019-12-11
得票数 1
1
回答
CNN:正常情况下,
验证
损失
的
减少
比
训练
损失
要慢得多?
deep-learning
、
conv-neural-network
、
semantic-segmentation
我
正在
训练
一个用于图像语义分割
的
CNN U-网模型,但是
训练
损失
似乎以比
验证
损失
更快
的
速度下降,这正常吗?培训和
验证
的
损失
可以从下面的图像中看到:
浏览 3
提问于2020-08-07
得票数 3
回答已采纳
1
回答
我们可以在CNN上使用
验证
损失
和交叉
验证
吗?
machine-learning
、
python
、
cnn
验证
损失
用于
避免
训练
集
的
过度
拟合
,交叉
验证
用于推广模型
的
结果。 它们是否用于类似的目的或结果?如果没有,那么我
如何
同时使用
验证
损失
和交叉
验证
结合在CNN上?
浏览 0
提问于2020-05-03
得票数 0
4
回答
验证
损失
不增加
deep-learning
、
image-classification
、
image
我
正在
试着检查我
的
二值图像分类模型。 我在20个样本上
训练
它过适应,现在理论上
训练
损失
应该
减少
,
验证
损失
应该增加。因为模特不应该学任何东西,但我
的
火车和瓦尔
损失
都在
减少
。
验证
的
准确性也遵循一种非随机
的
模式,在20个样本上
过度
拟合
时,我对性能期望
的
断言
是
真的吗?我
的<
浏览 0
提问于2022-08-15
得票数 0
1
回答
连体网络-
训练
自己
的
数据集和判断过
拟合
python
、
tensorflow
、
tensorboard
、
siamese-network
、
overfitting-underfitting
我使用暹罗网络
训练
我自己
的
数据集。我使用Tensorboard.I可视化了
训练
结果。我
是
一个初学者,我不太擅长判断它是否
是
overfit.Please帮助,谢谢!图1和图2
是
列车。图3和图4
是
验证
。 ? ? ? ?
浏览 18
提问于2021-03-22
得票数 0
1
回答
验证
损失
既没有增加也没有
减少
。
python
、
pytorch
通常,当模型覆盖时,
验证
损失
会上升,而
训练
损失
则会从
过度
拟合
的
角度下降。
但
就我
的
情况而言,
训练
损失
仍在下降,
但
验证
损失
保持在同一水平。因此,
验证
的
准确性也保持在相同
的
水平,
但
训练
的
准确性上升。同样
的
行为,当我试图从二维图像
浏览 4
提问于2020-11-29
得票数 2
2
回答
哪一种模型更好,一种在高精度超
拟合
之前,还是一种没有过
拟合
和低精度
的
模型?
machine-learning
、
cnn
、
accuracy
、
overfitting
在第一次
训练
中,我在第5次
训练
中获得了87%(0.29
损失
)和87%(0.30
损失
)
的
训练
精度,我连续
训练
了15次,正如预期
的
那样,它开始
过度
拟合
,
训练
精度提高到97%(0.01
损失
),
验证
保持在87%在第二个模型中,我使用了数据增强和Dropout层来处理过
拟合
(总共
训练
了10个历元)。结果如下:第五阶段:
训练</em
浏览 0
提问于2020-07-27
得票数 2
2
回答
这是个过火
的
案子吗?
image-classification
、
overfitting
、
vgg16
我
是
一个新
的
程序员,这是我在现实世界中应用
的
第一个神经网络。但是,不管我改变了什么超参数,我总是得到类似于这些参数
的
图。📷 因此,我
的
问题
是
,在什么样
的
损失
(val_loss),我们可以考虑模型培训?如果我给VGG-16提供
的
图像是RGB
浏览 0
提问于2018-05-24
得票数 3
回答已采纳
1
回答
验证
损失
和
训练
损失
之间
的
差距
python-3.x
、
tensorflow
、
keras
、
neural-network
、
conv-neural-network
下面
是
我
的
CNN模型
的
验证
损失
和
训练
损失
的
图表。这是什么意思?模型不是过
拟合
,因为
验证
损失
正在
减少
,但是模型是否有问题,因为两个函数之间存在差距? 我
是
浏览 30
提问于2020-05-19
得票数 3
1
回答
通过对
损失
曲线
的
分析来改进神经网络
keras
、
lstm
我建立了一些基于LSTM
的
网络。我调整了参数。结果如图所示,并不令人印象深刻。
浏览 3
提问于2021-12-10
得票数 -1
2
回答
在下面的例子中,用什么时期来
避免
过度
拟合
是
最好
的
?
machine-learning
、
keras
、
deep-learning
、
data-science
、
training-data
我有一个8层
的
完全连接
的
神经网络,它
的
训练
提供了以下准确性和
损失
级数: 在模型开始
过度
拟合
之前,你认为最好
的
时期是什么?橙色
的
那个?(时代#84 -停滞前
的
最低
损失
) 或者
是
浏览 0
提问于2019-05-06
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
利用正则化方法避免过拟合问题
TensorFlow 2keras开发深度学习模型实例:多层感知器(MLP),卷积神经网络(CNN)和递归神经网络(RNN)
如何防止我的模型过拟合?这篇文章给出了6大必备方法
三千字轻松入门TensorFlow 2
《Machine Learning for Humans》第二章:监督学习(一)
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券