腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
CV
进行
模型
评估
和
参数
调整
、
、
我试着比较三种
模型
:SVM、RandomForest
和
LogisticRegression。我有一个不平衡的数据集。首先,我将其拆分为80% - 20%的比率来训练
和
测试集合。接下来,我只在火车上
使用
了StratifiedKfold。我现在尝试做的是拟合
模型
并选择最好的
模型
。此外,我还想对每个
模型
使用
网格搜索,以找到最佳
参数
。_2, X_test_2, y_train_2, y_test_2 = X[train_index], X[t
浏览 36
提问于2021-01-30
得票数 0
回答已采纳
2
回答
机器学习算法
和
交叉验证--最佳实践
、
、
我还试图开始
使用
sklearn库实现一些用于回归的算法。我了解数据集,清理
和
准备,为这类数据集确定一套合适的算法。基于交叉验证的随机或网格搜索算法的超
参数
整定现在出现的问题是,我不知道该怎么办。 我是否可以考虑用最好的
参数
来训练算法,同时执行交叉验证?简而言之,
模型
投入生产是经过交叉验证的
模型
(例如,在步骤4中
使用
KFold
进
浏览 0
提问于2021-02-09
得票数 0
回答已采纳
3
回答
LightGBM中的交叉验证
、
、
、
我们应该如何
使用
lightgbm.
cv
的字典输出来改进我们的预测呢?下面是一个例子--我们
使用
下面的代码训练我们的简历
模型
: d_train, early_stopping_rounds = 25,我们如何
使用
从上述代码
浏览 3
提问于2017-09-28
得票数 19
1
回答
使用
交叉验证训练
模型
、
、
、
、
我正在用简历训练一个
模型
,然后在一个新的测试集上测试预测。谢谢!
浏览 0
提问于2021-04-29
得票数 2
1
回答
使用
K-折叠
CV
与保留方法是否多余?
、
、
它采用原始设计矩阵X
和
响应向量Y,执行列车测试拆分(产生X_train,y_train
和
X_test,y_test),然后只对训练部分执行分层K倍交叉验证。按照目前的方法,在
进行
交叉验证之前,原始数据集似乎正在减少40%。None],] estimator=pipe1,
cv
浏览 0
提问于2022-10-22
得票数 2
1
回答
如何
使用
自定义
模型
评估
算法对超
参数
进行
优化?
在我的
模型
评估
算法中,我希望得到验证数据的
模型
预测,并应用一种基于验证数据
和
预测的
模型
和
模拟现实场景的算法。在我的场景中,
评估
算法不仅依赖于真实目标值(y_true)
和
预测(y_pred),而且还依赖于输入验证数据(X)来输出最终的
模型
得分。因此,对于我的用例,我似乎不能
使用
带有自定义度量的估计器。实现
评估
/评分算法对我来说很简单,但如何将
评估
算法的输出传递给ML引擎的超
浏览 5
提问于2018-12-15
得票数 1
回答已采纳
2
回答
在
使用
train_test_split时
使用
GridSearchCV
和
交叉验证是否有意义?
、
我
使用
交叉验证的GridSearchCV来训练
和
调优不同
模型
类型(例如回归树、岭、弹性网等)的
模型
超
参数
。在对
模型
进行
拟合之前,我省略了10%的样本,以便
使用
train_test_split
进行
模型
验证。(见截图)。我选择具有最佳
参数
的
模型
来对未见验证集
进行
预测。我是不是遗漏了什么,因为我还没有看到有人在
评估
模型
的准确性,同时<
浏览 0
提问于2020-02-08
得票数 2
回答已采纳
1
回答
使用
验证数据
、
、
我不清楚
使用
验证数据的确切过程。 假设我拟合我的神经网络
模型
,并
使用
训练集
和
验证集来
调整
超
参数
。然后对这个
模型
上的测试集
进行
评估
吗?还是重新组合验证
和
培训集,并将新的
模型
与我在验证阶段发现的超
参数
相匹配,然后对测试数据
进行
评估
?我已经看到了许多不同的笔记本
和
例子,两者兼而有之。当然,一旦我找到了我的超
参数
,<e
浏览 0
提问于2019-02-07
得票数 2
回答已采纳
2
回答
交叉验证后
使用
训练测试确定最优算法
使用
?
、
、
我对在数据集上训练不同的算法
和
观察性能指标很感兴趣。目前,我的方法是对训练数据
进行
不同的算法训练,然后在测试集上
进行
性能
评估
。然后,我
使用
带有交叉验证的GridSearch来为性能最好的
模型
找到最优的超
参数
,然后再用这些
参数
进行
测试。 我对交叉验证有点困惑--这是正确的方法吗?还是有一种方法可以/应该对所有
模型
进行
交叉验证?
浏览 0
提问于2022-04-22
得票数 1
1
回答
嵌套交叉验证:外部循环是如何工作的?
、
问题:如果每个内循环
cv
进程产生不同的超
参数
,那么外部循环如何工作? 为了解释我的意思,我将引用上面的图像,它在外循环中有3倍,我将分别称为折叠1、2
和
3。对于外循环的第一次迭代,我们
使用
折叠1作为保持测试集,并在内部循环中通过Folds 2&3
进行
(Kfold )超
参数
调整
。让我们说,这产生了一组最优的超
参数
:超
参数
集A。现在,对于外部循环的下一次迭代,
使用
折叠2作为测试保持集,并在Folds 1&
浏览 6
提问于2022-02-18
得票数 1
2
回答
xgboost总是预测数据集不平衡的1级。
、
我正在
使用
xgboost来构建一个
模型
。数据集只有200行
和
10000 cols。我试过chi-2得到100科尔,但我的混淆矩阵如下所示:1 190 0我试着
使用
10000属性,随机选择100个属性,根据chi-2选择100个属性,但我从未得到0的预测结果是因为数据集,还是因为我
使用
xgboost的方式? "seed"=
浏览 0
提问于2017-10-24
得票数 0
回答已采纳
1
回答
如何重置ML
模型
的内存?
、
、
、
、
我一直在研究二进制分类问题,
使用
随机森林算法、神经网络、增强方法
和
logistic回归等算法。步骤-1)我将.fit()应用于列车数据,
评估
性能(通过grdisearchcv确定最佳
参数
)当test_data的性能不佳时,我做了以下工作 ( a)更改算法(或超
参数
、
浏览 0
提问于2022-02-25
得票数 4
回答已采纳
2
回答
在k折叠简历之后下一步是什么?
、
、
;https://stats.stackexchange.com/questions/11602/training-on-the-full-dataset-after-cross-validation
和
https://stats.stackexchange.com/questions/11602/training-on-the-full-dataset-after-cross-validation)
和
研究论文中,我了解到: --对于
使用
k折叠
浏览 0
提问于2020-10-23
得票数 3
回答已采纳
1
回答
嵌套交叉验证的正确过程是什么?
、
、
、
我正在尝试
使用
scikit-学习做一个分类器,然后预测分类器的准确性。我的数据集相对较小,我不确定最佳
参数
。因此,我转向嵌套交叉验证(nCV)来建立
和
测试我的
模型
。 (80%/20%)将整个数据集划分为训练集
和
测试集,定义了内部
cv
、外部
cv
、
参数
网格
和
估计器(随机森林)运行nCV以获得平均精度分数。rf
浏览 0
提问于2020-10-07
得票数 1
1
回答
MLR3生存分析:如何同时
进行
特征选择
和
超
参数
调整
,得到selected_features?
、
我正在尝试拟合coxph
和
参数
模型
,同时执行特征选择
和
超
参数
调整
。下面有下面的代码,可以在重采样中
使用
auto_fselecter或auto_tuner,但不能同时
使用
两者。我该怎么做?我是否需要3次嵌套重采样(内部用于特性选择,中间用于调优,外部用于性能
评估
)?在mlr中,我们很容易
使用
特性选择包装器,然后调优包装器,但不确定如何在mlr3中最好地完成它。learner$selected_features()似乎不
浏览 1
提问于2021-12-04
得票数 2
1
回答
xgb.
cv
似乎只
使用
训练数据
进行
xfold验证?
、
、
我对R中的ml
和
尝试构建一个10倍交叉验证的xgboost
模型
是相当陌生的。我在这里看到了文档: https://www.rdocumentation.org/packages/xgboost/versions/1.1.1.1/topics/xgb.
cv
然而,在这个示例中,它纯粹
使用
训练数据任何
使用
过这个包的人都能帮助我理解这个交叉验证
模型
是如何测试的吗? 谢谢
浏览 22
提问于2020-07-24
得票数 0
回答已采纳
1
回答
不同时间的R平方分数不同
、
、
、
这是构建回归
模型
的代码,R平方输出是关于.5的:from sklearn.model_selection import
进行
交叉验证时,它显示了不同的R-平方值。下面是X_test
和
y_test
参数
:
cv
= cross_val_score(reg, X_test.reshape, 0.59771158,
浏览 1
提问于2020-07-13
得票数 0
回答已采纳
1
回答
LassoCV如何在scikit中学习分区数据?
、
、
、
我是执行线性回归
使用
拉索方法在雪橇。Lasso
CV
是否符合上述协议,还是只是在相同的数据
和
/或在同一轮<e
浏览 3
提问于2014-06-15
得票数 8
回答已采纳
1
回答
我是否应该将我的数据分成培训/测试/验证集,并
进行
k-交叉验证?
、
在
评估
推荐系统时,可以将其数据分成三部分:培训、验证
和
测试集。在这种情况下,培训集将用于从数据中学习推荐
模型
,而验证集将用于选择要
使用
的最佳
模型
或
参数
。然后,
使用
所选择的
模型
,用户可以
使用
测试集来
评估
其算法的性能。我已经找到了一个scikit学习交叉验证()的文档页面,它说,在
使用
k-折叠交叉验证时,不需要将数据分成三部分,而是只分为两部分:培训
和
测试。解决这个问题的方法是一个叫做
浏览 5
提问于2017-04-05
得票数 0
回答已采纳
3
回答
时间序列.数据分割
和
模型
评估
、
、
在堆栈溢出问题()中,有一个
使用
createTimeSlices
进行
模型
培训
和
参数
优化的交叉验证示例: library(ggplot2) trControl = myTimeControl) 我需要分割可能的数据到培训
和
测试集
使用
<em
浏览 6
提问于2014-07-15
得票数 20
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Optuna进行PyTorch模型的超参数调优
使用scikit-learn为PyTorch 模型进行超参数网格搜索
交叉验证和超参数调整:如何优化你的机器学习模型
传字节大模型团队进行架构调整 多名算法和技术负责人转向吴永辉汇报
一个完整二分类机器学习案例
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券