腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3347)
视频
沙龙
1
回答
部署
CNN
:
高
训练
和
测试
精度
但
低
预测
精度
、
、
、
、
刚从ML开始,创建了我的第一个
CNN
来检测脸部图像的方向。在2组不同的1000张图片(128x128RGB)上,我的
训练
和
测试
准确率达到了96-99%左右。然而,当我自己从
测试
集中
预测
一个图像时,该模型很少能正确
预测
。我认为在
测试
和
预测
期间,我将数据加载到模型中的方式肯定有所不同。下面是我如何将数据加载到模型中进行
训练
和
测试
: datagen = ImageDat
浏览 29
提问于2020-07-17
得票数 0
1
回答
非常
低
的损失和
低
精度
是否表示过拟合?
、
、
、
、
我正在
训练
一个
CNN
-LSTM concat模型,经过20个时期后,我得到了69%的准确率
和
0.04 %的损失?我知道非常
高
的
训练
精度
和
相对较低的验证
精度
的组合表示过拟合,但我想知道
低
精度
和
非常
低
的损失是否也表示过拟合。 总体而言,准确率呈线性增加,损失呈指数下降。
浏览 37
提问于2020-01-30
得票数 0
回答已采纳
2
回答
机器学习中的
测试
数据集比
训练
数据集小
、
、
、
我想
训练
不同的机器学习算法(支持向量机,随机森林,
CNN
等)。对于相同的数据集(例如,MNIST),然后比较它们的准确性。目标是从哪种
训练
数据大小中找出哪种方法比其他方法更好。为了做到这一点,我不断地减少原始
训练
数据集( 60000个样本),并在这些减少的
训练
数据集上
训练
模型。如果我使用原始的MNIST
测试
数据集(10000个样本)来确定
精度
,我当然会得到过度拟合,例如,当
训练
数据集为1000个样本时,我获得了95%的
训练</
浏览 0
提问于2019-04-28
得票数 0
1
回答
在学习曲线的某一点后,
测试
分数降至
训练
分数以下
、
、
当我绘制贝叶斯岭回归模型的学习曲线时,我观察到近180个
训练
规模的
测试
分数高于
训练
分数;但是,对于更高的
训练
规模,
测试
分数低于
训练
分数。我将学习曲线附在下面:这可能是什么原因呢?在这样的
训练
规模下可能会发生什么?
浏览 17
提问于2021-06-04
得票数 0
1
回答
查准率
和
召回率之间是如何成反比关系的?
、
、
一种宣称每一张记录都具有
高
召回率
但
精度
低
的模型。我无法正确理解精确性与回忆之间是怎样的反比关系。 这是我找到的一个文档,但是我也无法从这个文档中理解它。
浏览 0
提问于2021-07-02
得票数 0
回答已采纳
1
回答
基于
精度
的多类分类模型评价
我有一个模型,可以
预测
三个等级的受伤程度:
低
、中和
高
。我希望在精确评分的基础上优化模型参数。然而,由于
精度
是特定类别的,我们可以分别确定
低
精度
、中
精度
和
高
精度
。有没有办法从混淆矩阵中确定“总体
精度
”之类的东西?
浏览 0
提问于2018-03-24
得票数 1
1
回答
用R
和
gbm实现这种随机森林逻辑正确吗?
、
、
、
出于专业原因,我想学习
和
理解随机森林。如果我的理解是正确的,或者我在做逻辑上的错误,我会感到不安全。我有7个分类变量,1个日期
和
4个数字特征。在数据准备之后,我将数据分成
训练
和
测试
数据集。 比我定义的梯度助推机模型
和
寻找合适的参数,通过尝试
和
误差,研究
和
更多的尝试
和
错误。我是计算拟合数据
和
测试
数据之间的误差
浏览 0
提问于2018-10-01
得票数 1
1
回答
HSV图像可以用于
CNN
训练
吗
、
、
、
当你查看数据集时,
训练
和
验证集中的图像非常基本,几乎是相同的。该网络可以实现
高
训练
和
验证
精度
。
但
当涉及到现实生活中的图像
预测
时,它的表现非常糟糕(这是因为该模型是在非常基本的图像上进行
训练
的)。为了克服这个问题,我将
训练
和
验证图像转换为HSV (色调-饱和度-值),并在新的HSV图像上
训练
模型。来自新
训练
集的1个这样的图像的示例是:然后,我将现实生活中
浏览 10
提问于2021-03-19
得票数 0
1
回答
Keras -
CNN
的培训
和
验证损失
、
我正在使用Keras来使用train_on_batch命令对我的
CNN
进行模拟图像的
训练
,可以得到
训练
的损失。下一次跑--我正在
预测
精度
,并回忆使用我的预先
训练
的
CNN
(自己的体系结构)来
预测
我的结果,在那里我使用命令predictions =model.predict(np.array(图像),batch_size=batch_size)将我的数据再分割成
训练
和
测试
数据集。
浏览 1
提问于2020-01-23
得票数 0
回答已采纳
1
回答
如何在TensorFlow中提高
CNN
的
预测
能力?
、
、
、
我在TensorFlow中使用具有两个卷积层的
CNN
,一个完全连接的层
和
一个线性层来
预测
对象的大小。标签是大小,特征是图像。两种方法的准确率都有所提高,
但
交叉验证准确率的提高速度较慢。考虑到
精度
上的差异是由于模型过拟合,我尝试使用L2正则化来正则化权重。但是,这只是降低了
训练
精度
,而交叉验证
精度
的趋势保持不变。
浏览 3
提问于2018-09-07
得票数 0
1
回答
低
损失和相同
预测
等级的原因?
、
、
我正在为二进制分类
训练
一个
cNN
。我使用了128批大小,损失正在减少,准确度随着时间的推移而增加。最终
精度
达到0.99以上,损失小于0.3。
但
再过几个年代,该模型收敛到了0.6,
精度
下降了0.5。对模型的检验表明,它总是
预测
0.5。我用二元交叉熵作为损失函数。对于每一个时代,所有的数据点都会被洗牌。我用的是SGD,学习率是0.01。 我是否以较低的准确率,
但
相当好的损失值,达到了局部最小值?此外,为什么有可能有一个
低
损失函数与一个单一的
预测</
浏览 0
提问于2018-03-01
得票数 0
回答已采纳
2
回答
当数据集只有很少的离群值时,防止拟合回归
CNN
达到平均值
、
、
我正试图在一个数据集上
训练
CNN
进行回归,在这个数据集中,大部分的点都围绕着一个相似的产值。然而,有一些异常值是非常重要的,但它们的代表性较低,因此,经过
训练
的网络倾向于
预测
接近整个数据集平均值的所有输出值(不适当)。这导致了一些小的误差(
和
很好的
精度
),因为绝大多数的点都在这个范围内,但是对于点的误差要高得多,甚至稍微超出了“正常”的情况。但是,由于这个回归器对于
预测
异常值(质量控制用例)的输出是非常有用的,所以目前它几乎是无用的。 有什么办法可以防止这种行为,并让<
浏览 0
提问于2018-08-03
得票数 4
2
回答
在MNIST数据集上
训练
CNN
的数字识别性能差
、
、
、
我
训练
了一个
CNN
(关于tensorflow),以便使用MNIST数据集进行数字识别。
测试
集的准确性接近98%。我对我写的图像做了什么?为什么我在我的数据集上得到如此
低
的精确度,而在
测试
集上却是如此的高
精度
?编辑:
浏览 4
提问于2016-11-16
得票数 2
回答已采纳
1
回答
训练
和
验证
精度
高
,
测试
精度
低
、
、
、
、
我正在用MobileNet基模型
训练
一个转移学习的
CNN
。我的数据集由三个类组成:“纸,剪刀,石头”(8751张图像,所有的类都是完全平衡的),我用它为“纸,剪刀,石头”游戏创建了一个手势识别模型。在使用keras的
训练
阶段,我在
训练
集
和
测试
集(准确度、
精度
,AUC几乎都在0.98%)上都取得了优异的结果: 我认为这可能是由于过度拟合所致,我应该对我的模型做一些调整,事实上,通过增强,
浏览 7
提问于2022-02-13
得票数 1
1
回答
在
训练
CNN
的同时不断地
训练
和
验证准确性
、
、
我在一个软件缺陷数据集上运行
CNN
,我已经使用Deep Insight Library将其转换为图像。在
CNN
上
训练
图像,在每一个时代之后,我都在见证不断的
训练
和
验证准确性。除了恒定的
训练
和
测试
精度
外,你们都可以看到与模型相关的
高
偏差
和
高
方差。如果你能建议一些步骤,帮助我避免获得这些常量值,并提高模型的准确性,我会很高兴的。
浏览 0
提问于2021-11-25
得票数 1
2
回答
在Keras/Tensoflow的
训练
中报告的“准确性”的含义?
、
训练
分类器。在
训练
期间,“准确性”是显示
和
更新每一小批。当我们运行一个
测试
批次时,“准确性”的含义是明确的,但是在培训期间,它是如何计算“准确性”的?
浏览 2
提问于2020-04-18
得票数 1
回答已采纳
1
回答
如何使用
测试
或
训练
来评估模型?
、
我在网上查看评估模型的例子,我发现了两个例子,它们之间有什么不同,我一直认为test_X
和
test_Y是用来做
预测
的,
训练
数据是用来
训练
和
评估的。
浏览 3
提问于2022-10-04
得票数 -2
1
回答
在
CNN
中不对最大池层使用步长
和
填充时对
精度
的影响
、
、
、
、
我正在为我的
CNN
测试
参数,它的目标是按照三个类别对图像进行分类。图像为224x224,
CNN
结构非常基本,由3个卷积层(32、32
和
64滤波器)组成,ReLU激活,之后有一个最大池层。在3个卷积层后,有一个有256个细胞的FC层
和
3个具有Softmax激活的神经元FC。经过一些
测试
后,我意识到
训练
和
测试
的
精度
保持不变,无论参数如何变化,大约33% (均匀分布,所以这只是猜测),但是我注意到我忘记了添加相同的填充<e
浏览 7
提问于2022-10-20
得票数 1
1
回答
训练
精度
低于
测试
精度
(MLP/Dropout)
、
、
现在我观察到
训练
精度
比
测试
精度
低
10%左右。当报告MLP的准确性时,我应该报告
训练
的精
浏览 0
提问于2020-12-23
得票数 0
回答已采纳
1
回答
Keras二进制分类-最大限度的召回
、
、
最大限度地提高正(真正)
预测
精度
(回忆),牺牲负(真负)
预测
精度
是极其重要的。因此,如果正
精度
是90%+,那么我宁愿拥有70%的总体
精度
,而不是
低
的正
精度
和
高
的总体
精度
。 你已经可以在这里看到问题了。
训练
下面的算法显然优化了整个数据集的损失。因此,对占数据集90%的负面记录给予了优先权。因此,总体数据集的准确性是
高
的,
但
真正的正准确性(回忆)是可
浏览 0
提问于2022-05-13
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
IBM正在研制通用型深度学习芯片
如何使用深度学习算法提高计算机视觉中的光流估计精度?
杨 帆,彭小圣,文劲宇,等:基于卷积神经网络的高压电缆局部放电模式识别
IBM开发全新的深度学习芯片,旨在极大提高利用率
TextTopicNet:CMU开源无标注高精度自监督模型
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券