腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
机器
学习
模型
在
测试数据
上
的
表现
比
验证
数据
差
python
、
tensorflow
我是
机器
学习
的
新手。 首先,我想训练一个
模型
来对猫和狗
的
图片进行分类。 我
的
问题是,当我训练我
的
模型
时,它给我提供了(大约) 80-85%
的
训练
数据
和
验证
数据
的
准确性。
验证
数据
和训练
数据
的
损失都很低,约为0.4 - 0.5。因为这些数字非常相似,我想我不会有过度拟合
的
问题,对
浏览 10
提问于2020-12-29
得票数 0
回答已采纳
2
回答
监督
学习
中
测试数据
的
目的?
machine-learning
、
test-data
、
supervised-learning
测试数据
的
用途是什么?只是为了计算分类器
的
准确率吗?我正在使用朴素贝叶斯对推文进行情感分析。一旦我使用训练
数据
训练我
的
分类器,我就使用
测试数据
来计算分类器
的
准确性。如何使用
测试数据
来提高分类器
的
性能?
浏览 0
提问于2015-03-02
得票数 0
2
回答
训练
数据
集和
测试数据
集之间
的
数据
冗余-为什么它是坏
的
(源需要)
machine-learning
、
data
、
training
我知道,
在
火车和测试集中有太多相似的
数据
是不可以
的
(例如,两张图片仅相差一个像素)。我试图找到一个科学上有效
的
解释为什么它是坏
的
,我指的是
在
同行评审
的
期刊
上
的
一篇论文,解释(甚至提到)这一点。几个小时都找不到合适
的
东西。你知道可靠
的
消息来源吗?
浏览 0
提问于2023-04-11
得票数 1
回答已采纳
1
回答
模型
在
测试数据
上
表现
不佳
classification
、
anomaly-detection
我正在研究一个分析性肿大
的
检测/分类问题。
数据
集是不平衡
的
,所以我使用f1评分作为度量来
验证
模型
的
性能。该
模型
在
GridSearchCV拟合过程中
表现
良好,
在
测试集
上
也
表现
良好。 然而,当我用新
的
数据
集测
浏览 5
提问于2022-10-09
得票数 1
3
回答
为什么深度
学习
模型
与
机器
学习
模型
相比不稳定?
machine-learning
、
deep-learning
、
cnn
、
logistic-regression
、
weight-initialization
我想知道为什么深度
学习
模式如此不稳定。假设我使用相同
的
数据
集多次训练
机器
学习
模型
(例如logistic回归),并多次训练深度
学习
模型
(例如LSTM)。在此之后,我计算了每个
模型
的
平均值及其标准
差
。深度
学习
模型
的
标准
差
比
机器
学习
模型
的
标准<e
浏览 0
提问于2021-11-09
得票数 4
2
回答
K折叠交叉
验证
不会使
数据
的
任何部分对
模型
盲目。
machine-learning
、
data-science
、
cross-validation
我有一个关于K折叠交叉
验证
的
概念性问题。一般情况下,我们根据
测试数据
训练一个
学习
模型
,并用
测试数据
对其进行
验证
,假设系统对这些
数据
是盲目的,这就是为什么我们可以评估系统是否真的学会了。现在使用k折叠,最后
的
模型
实际
上
已经(间接地)看到了所有
数据
,那么为什么它仍然有效?它已经看到了所有的
数据
,我们不知道它是如何预测未知
数据
的
。这就
浏览 0
提问于2022-06-11
得票数 -1
1
回答
在
F1评分指标上训练和
验证
模型
正确吗?
deep-learning
、
classification
、
time-series
、
training
、
f1score
我试图
在
多个
数据
集
上
做实验。有些人
比
其他人更不平衡。现在,为了确保公平
的
报告,我们计算F1分数
的
测试数据
。
在
大多数
机器
学习
模型
中,我们通过精度度量对
模型
进行训练和
验证
。然而,这一次,我决定在F1评分度量标准
上
训练和
验证
模型
。从技术
上
讲,在我看来,不应该有问题。不过,我想知道这是否正确
的
浏览 0
提问于2022-01-31
得票数 0
1
回答
用于
机器
学习
的
Python pickle
python
我已经
在
Windows中构建了一个预测
模型
,以使用python 3.6.1训练
数据
集。我使用pickle将列车
模型
保存为Pickle文件我已经
在
Windows
上
获得了成功
的
结果。现在,我想将训练酸菜文件和Python脚本(使用训练酸菜文件使用
测试数据
预测
模型
)移动到具有与windows.But相似版本
的
py
浏览 1
提问于2018-04-21
得票数 1
1
回答
在
发生故障时,使用测试集最终会烧毁
数据
集吗?
machine-learning
给定一个
数据
集,我想训练一个
机器
学习
算法。
数据
分为培训、
验证
和
测试数据
。扔掉所有东西,用相同
的
数据
集开始新
的
工作。然而,这一直是比喻
的</e
浏览 0
提问于2020-10-16
得票数 3
1
回答
是否可以拥有与
验证
历史非常相似的培训历史?
python
、
keras
、
plot
我训练了一个50年代
的
模型
,按照以下比例分割
数据
集: X = np.load(....)从历史上可以看出,
验证
的
准确性/损失与培训
的
准确性/损失非常相似。有时
验证
损失
浏览 1
提问于2021-01-08
得票数 1
回答已采纳
2
回答
为什么一遍又一遍地使用相同
的
测试数据
集是不好
的
?
machine-learning
、
generalization
我正在跟踪这个谷歌
的
系列:
机器
学习
速成班。测试集
上
的
良好性能是一般新
数据
良好性能
的
有用指标,前提是:为什么第二点是坏
的
呢?只要没有
在
训练阶段使用测试集,为什么继续使用相同
的
测试集来测试
模型
的
性能会有什么不好呢
浏览 0
提问于2018-07-20
得票数 0
回答已采纳
1
回答
迁移
学习
分割
模型
在
测试数据
上
的
表现
明显
差
deep-learning
、
pytorch
、
transfer-learning
、
semantic-segmentation
作者采用了一种基于Resnet34权重
的
迁移
学习
方法。 由于硬件
的
限制,我不得不将批次
的
一半从24到12。然而,
在
训练
模型
之后,我注意到性能显著下降,三个类中
的
Dice分数(越高越好)只有5-19-11,而在论文中报告
的
结果是78-87-82。然而,训练和
验证
的
准确性似乎是正常
的
,只是
模型
在
测试数据
上
表现
不佳,我选择了在过度拟合
浏览 2
提问于2021-03-18
得票数 1
回答已采纳
1
回答
为什么不在RandomizedSearchCV中评估过测试拟合结果?
python
、
optimization
、
hyperparameters
、
gridsearchcv
我正在尝试
在
sklearn中优化分类器和回归方法
的
hiperparameters。我有个问题。为什么
在
评估结果时,您选择例如最佳训练精度,而不是
在
测试中评估此结果,并使用其他训练精度迭代其他值以获得最佳测试精度?因为很明显,用于最佳训练精度
的
参数与用于最佳测试精度
的
参数不同。 谢谢!
浏览 1
提问于2019-09-18
得票数 0
3
回答
机器
学习
:基于
测试数据
的
训练
模型
machine-learning
我想知道一个
模型
是否也是从
测试数据
中训练自己,同时对它进行多次评估,从而导致了一个过度拟合
的
场景。通常,我们将训练
数据
分成train-test分割,我注意到有些人将它分成3组
数据
-- train、test和eval。eval是对
模型
的
最终评价。我可能错了,但我
的
观点是,如果上面提到
的
场景不是真的,那么就不需要eval
数据
集。 需要澄清一下。
浏览 5
提问于2018-01-03
得票数 1
回答已采纳
3
回答
机器
学习
项目:
在
探索性
数据
分析之前或之后,拆分培训/测试集?
r
、
machine-learning
、
data-analysis
在
进行任何探索性
数据
分析之前,最好将
数据
分成培训和测试集,还是所有的探索都是基于培训
数据
?我现在正在做探索性
数据
分析--一开始没有什么特别的,只是从变量分布之类
的<
浏览 1
提问于2019-01-21
得票数 15
2
回答
我们是否需要对测试和训练
数据
集进行预处理?
machine-learning
、
python
、
pandas
、
preprocessing
我得到了两个
数据
集,
在
测试和培训
数据
集中都有缺失
的
值。我是否也需要对test.csv进行预处理,还是只对train.csv进行预处理?
浏览 0
提问于2021-10-17
得票数 3
2
回答
训练损失和
验证
损失之间有很大
的
差距,这是不是很糟糕?
overfitting
假设我
的
训练损失为0.5,我
的
验证
损失为2.5 (两者都已停止下降,
验证
损失从未增加)。我显然太适应了。如果增加正则化,我
的
训练损失为1,
验证
损失为3.5。第一种
模型
明显具有较好
的
验证
损失,而第二种
模型
适用范围较小。 应该选择哪种型号?一个更适合
的
模型
是否有可能在看不见
的
数据
上
表现
更好,或者这是否意味着存在某种类型
的</
浏览 0
提问于2019-01-25
得票数 1
1
回答
从培训集复制
数据
machine-learning
、
training
在
通过复制记录创建
的
更大
的
训练集
上
训练
的
模型
在
测试数据
上
比
在
没有重复
的
数据
上
训练
的
模型
表现
得更好吗?
浏览 0
提问于2020-10-08
得票数 2
1
回答
如何在C++中使用MXNet
模型
?
c++
、
mxnet
在
我训练了一个
模型
之后,我如何在C++中使用它?
浏览 0
提问于2017-11-15
得票数 1
2
回答
为什么超参数调优发生在
验证
数据
集
上
,而不是
在
一开始?
machine-learning
、
deep-learning
、
neural-network
、
hyperparameter-tuning
、
hyperparameter
尽管做了/使用过几次,但我仍然对使用
验证
集进行超参数调优感到有点困惑。据我所知,我选择一个
模型
,对训练
数据
进行训练,对训练
数据
进行性能评估,然后对
验证
数据
进行超参数整定评估
模型
性能,然后选择最佳
模型
并对
测试数据
进行测试。为了做到这一点,我基本
上
需要随机选择一个
模型
来训练
数据
。我不明白
的
是,我不知道哪一种模式
在
一开始会是最好
的</
浏览 0
提问于2022-05-28
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何解决机器学习中出现的模型成绩不匹配问题
R语言如何和何时使用glmnet岭回归
简明数据科学 II:统计学习的关键概念
Python之Sklearn使用教程
《Deep Learning with Python》第二章 2.1 神经网络的MNIST手写数字识别
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券