X
和y
分别是观察值和目标值。
logreg = LogisticRegression(random_state=0)
parameters_logreg = {'C': [0.1, 1, 0.5], 'max_iter': [100, 102] }
gs_logreg = GridSearchCV(logreg, parameters_logreg, cv = 5)
gs_logreg.fit(X, y)
cv_logreg = KFold(n_splits=5, shuffle=True, random_state=9)
cross_val_score(gs_logreg, X, y, cv=cv_logreg, scoring='roc_auc')
我正在做一个使用逻辑回归的分类问题。应用网格搜索,我找到最好的超参数。之后,我计算交叉验证折叠的分数。
我的第一个问题是,gs_logreg.fit(X, y)
会影响交叉验证的最终分数吗?cross_val_scores是如何工作的?它更适合gs_logreg
的,但现在在简历折叠上?在第一次匹配gs_logreg.fit(X, y)
之后,它还能记住y
吗?
第二个问题是这段代码正确吗?令人惊讶的是,我的愚蠢模型得到了很高的分数。
发布于 2021-10-25 11:08:14
要回答您的第一个问题,为什么不注释掉该语句(gs_logreg.fit(X, y)
),重新运行并检查交叉验证结果是否已更改?如果它们确实改变了,那么该语句就会影响最终分数,否则就不会。
https://stackoverflow.com/questions/69712945
复制相似问题