腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
交叉
验证
是否
用于
模型
选择
?
r
、
machine-learning
、
cross-validation
、
r-caret
、
k-fold
例如,具有训练GLM
模型
的以下代码: glm_sens = train( data = ABT, method = "glm", metric = "Sens" ) 我预计这会训练几个
模型
,然后
选择
在灵敏度方面表现最好的
模型</
浏览 15
提问于2020-06-15
得票数 1
1
回答
在K折叠
交叉
验证
之前或训练
模型
之后,
是否
需要首先训练
模型
?
machine-learning
、
cross-validation
我正在实现一个
用于
分类目的的神经网络,现在我遇到了
交叉
验证
的麻烦。我的问题如下: 我们
是否
需要首先训练
模型
,然后
交叉
验证
它(K折叠),或者我们首先
交叉
验证
模型
,然后
选择
在未知数据上表现良好的
模型
,然后训练它,谁能指导我整个过程是如何运行的,它正在变得混乱,因为如果训练是在之前或之后完成的
浏览 0
提问于2020-04-23
得票数 0
1
回答
predict_proba如何与
交叉
验证
一起工作?
scikit-learn
、
cross-validation
、
caret
当使用5倍
交叉
验证
来创建
模型
时,创建了5个不同的
模型
.最后一种模式的
选择
可能有所不同: best-estimated (或其他标准)在5倍创建的
模型
或中建模,该
模型
在对所有数据集进行培训时创建。我知道
交叉
验证
是
用于
模型
检查,而不是
用于
建模。所以当在
模型
上使用predict_proba时,这个概率是如何定义的?你能分享一些论文或文章来讨论预测是如何在R中的插入符号和
浏览 1
提问于2022-06-15
得票数 0
1
回答
我
是否
应该将我的数据分成培训/测试/
验证
集,并进行k-
交叉
验证
?
validation
、
machine-learning
在评估推荐系统时,可以将其数据分成三部分:培训、
验证
和测试集。在这种情况下,培训集将
用于
从数据中学习推荐
模型
,而
验证
集将
用于
选择
要使用的最佳
模型
或参数。然后,使用所
选择
的
模型
,用户可以使用测试集来评估其算法的性能。我已经找到了一个scikit学习
交叉
验证
()的文档页面,它说,在使用k-折叠
交叉
验证
时,不需要将数据分成三部分,而是只分为两部分:培训和测试。解决这个问
浏览 5
提问于2017-04-05
得票数 0
回答已采纳
1
回答
cross_val_predict后新文档的分类
python
、
twitter
、
machine-learning
、
scikit-learn
、
classification
我正在使用Python的scikit-为这个
模型
学习。我手动编码1000条推文为“相关”或“不相关”。然后,以80%的人工编码数据作为训练数据,其余作为测试数据,运行支持向量机
模型
。我获得了很好的结果(预测精度~0.90),但为了避免过度拟合,我决定对所有1000个手工编码的tweet进行
交叉
验证
。 下面是我的代码,在我的样本中已经获得tf矩阵的tweet之后。"target“是一个数组,列出了tweet
是否
被标记为”相关“或”不相关“。为了使用我的
模型
对其他9000条我没有手
浏览 15
提问于2017-01-23
得票数 2
回答已采纳
1
回答
我们可以在CNN上使用
验证
损失和
交叉
验证
吗?
machine-learning
、
python
、
cnn
验证
损失
用于
避免训练集的过度拟合,
交叉
验证
用于
推广
模型
的结果。 它们
是否
用于
类似的目的或结果?如果没有,那么我如何同时使用
验证
损失和
交叉
验证
结合在CNN上?
浏览 0
提问于2020-05-03
得票数 0
2
回答
机器学习算法和
交叉
验证
--最佳实践
machine-learning
、
python
、
regression
我还试图开始使用sklearn库实现一些
用于
回归的算法。我了解数据集,清理和准备,为这类数据集确定一套合适的算法。训练算法,查看性能,
选择
最优的算法。我有最佳的参数训练算法,我用这样的参数来训练算法。 现在出现的问题是,我不知道该怎么办。我
是否
可以考虑用最好的参数来训练算法,同时执行
交叉
验证
?或者让我在没有
交叉
验证
的情况下训练算法?简而言之
浏览 0
提问于2021-02-09
得票数 0
回答已采纳
1
回答
模型
性能估计中
交叉
验证
的有效性
machine-learning
、
cross-validation
、
model-evaluations
当应用
交叉
验证
来估计预测
模型
的性能时,所报告的性能通常是所有
验证
折叠上的平均性能。由于在此过程中,创建了多个
模型
,必须
选择
一个
模型
作为实际
用于
预测真实世界样本的
模型
(例如在产品中)。我想知道,将
验证
性能报告为最终(选定)
模型
的估计性能
是否
真的有效(因为性能是使用在
验证
过程中创建的所有其他
模型
导出的,但在使用最终
模型
进行预测时不考
浏览 0
提问于2019-09-07
得票数 1
回答已采纳
1
回答
H2O
交叉
验证
所
选择
的折叠
是否
改变了所使用数据的百分比?
python
、
cross-validation
、
h2o
、
k-fold
H2O手册描述了如何分割数据以进行k-折叠
交叉
验证
.给出的例子是一个5倍
交叉
验证
。参见:,它声明: “前5种
模型
(
交叉
验证
模型
)建立在80%的培训数据基础上,而对于5种
模型
中的每一种,分别提供了不同的20%。”。如果
选择
了不同的折叠值,这些百分比会不会不同--例如,假设
选择
10作为折叠数,以下
是否
为真?‘前10个
模型
(
交叉
验证
<
浏览 1
提问于2020-05-04
得票数 0
回答已采纳
2
回答
为什么同时使用
验证
集和测试集?
machine-learning
、
neural-network
、
cross-validation
考虑一个神经网络: 对于给定的数据集,我们将其划分为训练、
验证
和测试集。假设我们按照经典的60:20:20的比例来做,然后通过在
验证
集上检查网络来防止过度拟合。测试集上的错误不是和
验证
集有点相同吗?对于网络来说,它是一个看不见的数据,就像
验证
集一样,它们的数量也是相同的吗?相反,我们不能通过将测试集合并到它来增加训练集,以便我们有更多的培训数据和网络更好的训练,然后使用
验证
集来防止过度拟合吗?我们为什么不这么做呢?
浏览 0
提问于2017-04-13
得票数 36
回答已采纳
1
回答
时间序列数据的
模型
参数
选择
machine-learning
对于
模型
参数的
选择
,我们总是进行网格搜索和
交叉
验证
,以检验哪些参数优于其他参数。对于一般的培训数据,比如,这是正确的,但是如果数据之间有时间关系,比如多天卖出或多天卖出,那么直接进行
交叉
验证
是错误的吗?由于
交叉
验证
将在训练数据中使用随机分裂的kFold,这意味着时间序列数据,最近几天的信息将
用于
旧日的训练。 我的问题是,如何对时间序列数据进行参数
选择
或
交叉
验证
?
浏览 3
提问于2016-10-19
得票数 0
回答已采纳
1
回答
在
选择
最佳超参数组合后,SparkML CrossValidator
是否
重新适合完整的训练数据集?
apache-spark
、
pyspark
、
cross-validation
、
apache-spark-mllib
、
apache-spark-ml
在训练数据集上
交叉
验证
超参数网格后,SparkML的CrossValidator
是否
重新适合整个训练数据集?如果不是,它会从
交叉
验证
的哪一部分中
选择
用于
推断的bestModel?为此,CrossValidator
是否
使用最佳超参数在整个训练/
交叉
验证
数据集上重新训练,并使用重新拟合的
模型
进行推理?或者,bestModel
用于
推断所有
交叉
验证</e
浏览 22
提问于2021-03-23
得票数 0
1
回答
用sklearn进行拟合和预测的K-折叠
python
、
tensorflow
、
keras
、
scikit-learn
是否
有可能将k-折叠应
用于
模型
的拟合和以后的预测?通过这样做,我们有效地用已有的1年数据对
模型
进行了培训,并确保
模型
适合于进行适当的预测。这
是否
可能,也许是一个更好的问题,这是预测数据的正确方法吗?
浏览 8
提问于2022-04-06
得票数 -1
1
回答
如何在R中正确使用plsr()?
r
、
cross-validation
2)不分割任何数据,只需将
模型
拟合成完整的数据。既然validation = "CV"已经包括在内,并且它会自动应用10倍的简历,为什么
模型
会被纳入培训数据,而不是完整的数据呢?在这种情况下,列车数据不是再次被分割成训练和测试数据,10倍
交叉
验证
自动应用吗?
浏览 4
提问于2017-07-19
得票数 0
回答已采纳
1
回答
与GridSearchCV的工作混淆
python
、
machine-learning
、
scikit-learn
GridSearchCV实现了一种适合的方法,它执行n次
交叉
验证
来确定最佳参数.在此之后,我们可以直接将最佳估计器应
用于
测试数据,使用predict() -遵循以下链接:- 它在这里说“
模型
是关于整个开发集的训练然而,我们只在这里应用了n倍
交叉
验证
。分类器
是否
也在对整个数据进行训练?还是在应用预测时,只
选择
具有最佳参数的最佳训练估计器?
浏览 1
提问于2014-11-16
得票数 3
回答已采纳
1
回答
如何在这些
模型
之间进行
选择
?
scikit-learn
、
regression
、
beginner
我有一个回归问题,所以我尝试了一些回归
模型
来
选择
最好的
模型
(基于RMSLE),以下是结果:下面是所有的
模型
= ('LR',LinearRegression(),(‘LR’,PolynomialFeaturesRandomForestRegressor(),('GBM',GradientBoostingRegressor()),('XGB',XGBRegressor()),('LGBM',LGBMRegressor()) 我的问题是如何<e
浏览 0
提问于2023-03-23
得票数 1
1
回答
validation_frame在H2O AutoML中的应用
h2o
、
automl
我想对K-1年进行培训,调整
模型
,并根据剩余的K年明确
选择
最好的
模型
。如果我关闭
交叉
验证
(使用nfolds=0)以避免将年份随机混合到N个折叠中,并将K年的数据定义为validation_frame,那么我就没有创建集成(按照文档的预期),这实际上是我所需要的。如果我使用
交叉
验证
(默认的nfolds)并定义一个
验证
框架作为K年数据的话。y, training_frame=k-1_years, validation_frame=k_year) 然后,根据
浏览 3
提问于2020-10-01
得票数 2
回答已采纳
1
回答
使用训练/测试集进行
交叉
验证
machine-learning
是否
可以使用
交叉
验证
和使用训练/测试集进行评估?我理解
交叉
验证
和持久化评估,但我对
是否
将它们结合在一起感到困惑。
浏览 0
提问于2011-10-27
得票数 2
1
回答
卡雷特
交叉
验证
后,逐步
选择
。机制问题
r
、
logistic-regression
、
cross-validation
、
r-caret
说我有维数:[1] 5000 25 trace = F,代码工作正常,它返回一个0.86 ROC的
模型
我不确定,对于每个k变量的
模型
,逐步
选择
的是偏差最小的
模型<
浏览 7
提问于2022-02-01
得票数 0
2
回答
CNN
模型
的
交叉
验证
技术
python
、
deep-learning
、
cnn
、
cross-validation
我在研究CNN的
模型
。和往常一样,我用批次和时代一起训练我的
模型
。当它完成训练和
验证
时,最后我使用一个测试集来衡量
模型
的性能并生成混淆矩阵。现在我想用
交叉
验证
来训练我的
模型
。我可以实现它,但我脑海中有一些问题:2-如果我使用
交叉
验证
,如何生成混淆矩阵?我
是否
可以将数据集拆分为训练/测试,然后在列车/<e
浏览 0
提问于2019-03-22
得票数 10
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券