腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(8543)
视频
沙龙
1
回答
使用
交叉
验证
和
ROC
度量
来
测量
分类
器
python-3.x
、
scikit-learn
、
roc
我正在尝试
使用
ROC
指标进行
交叉
验证
来
评估
分类
器
,我遇到了来自Scikit learn的以下代码: # Import some data to play with iris = datasets.load_iris
浏览 9
提问于2019-02-21
得票数 1
2
回答
roc
_auc的值有什么不同?
python
、
scikit-learn
我
使用
sklearn对我的二进制
分类
数据集
使用
10折
交叉
验证
,如下所示。我用"accuracy","precision_weighted","recall_weighted","f1_weighted“
来
衡量我的结果。‘
roc
_auc’‘
roc
_auc_ovo’‘
浏览 55
提问于2019-12-23
得票数 2
回答已采纳
1
回答
在建立机器学习模型时,在什么阶段
使用
ROC
曲线?
machine-learning
、
machine-learning-model
、
model-selection
、
auc
、
roc
在开发机器学习模型时,
ROC
曲线与AUC在哪个阶段
使用
?通常我有三个数据集在这一阶段,我
使用
组合的train + validation集进行K倍
交叉
验证
,我们可以计算出包括真阳性、假阳性以及其他
度量
在内的
度量
标准,并将它们进行平均,以创建一个类似于
ROC
曲线的图。、
分类
报告
和
ROC
曲线等。我的问题是,人们通常会做两次
ROC</
浏览 0
提问于2021-01-18
得票数 3
1
回答
如何
使用
插入符号
来
训练模型并在
验证
集上给出
分类
指标?
r
、
validation
、
r-caret
我这里有一个训练集,一个
验证
集
和
一个测试集。我想知道如何在不同的参数(由插入符号上的网格定义)上训练模型,但是
使用
在
验证
集上计算的
分类
度量
? preProc = c("center","scale"), tr
浏览 2
提问于2016-01-21
得票数 0
回答已采纳
1
回答
交叉
验证
时如何获得AUC-
ROC
而不是精确性?
python-3.x
、
machine-learning
、
scikit-learn
我正在对数据集进行
分类
,并
使用
交叉
验证
进行建模。
交叉
验证
给出了每个折叠的准确性,因为类是不平衡的,准确性是不正确的
度量
。我想得到AUC-
ROC
而不是准确性。
浏览 0
提问于2019-04-20
得票数 0
回答已采纳
1
回答
如何计算所有褶皱的平均
分类
报告?
scikit-learn
、
classification
、
cross-validation
我正在尝试做一个二进制类
分类
。由于我有一个小的数据集(275个样本),我已经做了留-一-出
交叉
验证
,并希望得到平均
分类
报告
和
AUROC/AUPRC跨越所有褶皱。classification_report_with_accuracy_score)) print("CV score",np.mean(cross_val_score(model,subset,y,cv=loo,scoring='
roc
_auc我正在初始化原始类
和
浏览 0
提问于2019-08-06
得票数 1
回答已采纳
2
回答
Logistic回归
和
Iris数据集在
ROC
AUC评分中的应用
python
、
machine-learning
、
scikit-learn
、
roc
我需要的是: 从他的想法
和
方法上,我简单地改变了我获得原始数据的方式: filepath_or_buffer='https://archive.ics.uci.edu如果我
浏览 0
提问于2019-05-02
得票数 7
回答已采纳
1
回答
交叉
验证
Matlab SVM的
ROC
曲线
matlab
、
svm
、
cross-validation
我需要为SVM
分类
器
绘制一条
ROC
曲线,遵循有关主题
和
matlab示例的许多线索,我喜欢以下内容mdlSVMmdlSVM);到目前为止,一切顺利,我还
交叉
验证
了我的模型mdlSVM = fi
浏览 35
提问于2017-08-08
得票数 0
回答已采纳
3
回答
什么时候AUC
和
准确率是相等的?
classification
术语AUC
和
准确性一直令我困惑。 在什么情况下AUC率
和
准确率完全相等?
浏览 0
提问于2016-07-12
得票数 3
1
回答
使用
log_loss/
roc
_auc_loss或执行cross_val_score =‘neg_log_log’/‘
roc
_auc’的不同结果(Scikit学习)
python
、
machine-learning
、
scikit-learn
、
classification
、
auc
在Scikit的一些
分类
模型中,我注意到在进行
交叉
验证
时,我获得的日志丢失和
ROC
AUC的分数一直低于在整个训练集上的拟合
和
预测(用于检查是否过拟合),这对我来说是没有意义的。具体来说,
使用
cross_validate,我将评分设置为['neg_log_loss', '
roc
_auc'],在对训练集执行手动拟合
和
预测时,我
使用
了
度量
函数log_loss'
和<
浏览 5
提问于2020-10-01
得票数 2
回答已采纳
1
回答
ROC
for predictions -如何定义类标签
roc
我有一组来自模型的预测
和
一组观察值的真实值,我想创建一个
ROC
。 预测的质量(以绝对误差计算)与预测的大小无关。所以我有一组预测(pred(1),pred(2),...,pred(n))
和
观察值(obs(1),obs(2),...,obs(n))。有人告诉我将我的二进制
分类
向量标签(I)的元素创建为label(i) = ifelse(|obs(i) - pred(i)| < tol,1,0),然后计算AUC (tol是某种重新指定的公差)。或者在这里
使用
ROC
是不合适的?
浏览 1
提问于2016-05-18
得票数 0
1
回答
在训练神经网络的多次训练中应取多少输出值?
classification
、
neural-network
、
supervised-learning
假设我
使用
神经网络进行2类
分类
。在
使用
培训集对网络进行培训之后,我想要预测没有类标签的数据集的类标签。现在,通过再培训,相同的数据集提供了不同的结果。
浏览 0
提问于2015-09-29
得票数 1
回答已采纳
2
回答
构建手动装袋
分类
器
后绘制
ROC
曲线
python
、
scikit-learn
我正在
使用
scikit-learn手动构建一个袋装
分类
器
。我需要这样做,因为我有三个数据子集,并且我需要在每个子集上训练一个
分类
器
。所以我基本上做的是创建三个RandomForestClassifier
分类
器
,并在子集上训练每个
分类
器
。(y_test, probas)然而,我需要做的是3折
交叉
验证
,然后绘制
R
浏览 2
提问于2014-04-02
得票数 0
1
回答
曲线下的pROC面积是否不正确?
r
、
r-caret
、
cross-validation
我目前的问题是:我
使用
caret包来生成
分类
预测模型,并且我打算用特定的
度量
(AUC
ROC
)
来
验证
我的模型。AUC
度量
可用于
使用
训练集(内部
验证
)训练模型,但不用于预测(外部
验证
)。= "
ROC
")sigma C
ROC
Sens Spec ROCSD SensSD SpecSD 0.0068
浏览 5
提问于2016-01-22
得票数 1
回答已采纳
2
回答
插入符号R中平均类概率的AUC
r
、
r-caret
、
auc
我想在
使用
caret包进行
交叉
验证
后,从我的二进制
分类
器
中获得曲线下面积(AUC)。 , trControl = controls , metric = '
ROC
我现在正在检索类probs,并将它们作为列附加到测试数据中,
浏览 0
提问于2017-05-28
得票数 1
1
回答
外部
验证
集的模型性能真的很低吗?
machine-learning
、
classification
、
lightgbm
、
validation
我
使用
LGBM模型进行二进制
分类
。我的训练
和
测试准确率分别为87%
和
82%,
交叉
验证
为89%.
ROC
评分为81%.但是,当在外部
验证
测试上评估模型性能时,该模型给出了41%的
roc
。
浏览 0
提问于2022-05-09
得票数 1
1
回答
XGBoost计算
度量
不平衡数据.自定义评估
度量
machine-learning
、
classification
、
xgboost
我
使用
xgboost包(在R中)建立了一个模型,我的数据是不平衡的(5000个正数对95000个负数),具有二进制
分类
输出(0,1)。我已经与
ROC
曲线下的评估
度量
AUC区域进行了
交叉
验证
,我现在认为这是错误的,因为这更好地用于平衡数据集。我
使用
精确记录曲线下的面积
和
马修斯相关系数( MCC )对模型的最终结果进行了分析,但我现在认为,我应该与AUPRC
和
MCC一起评估
交叉
验证
模型,并且完全忘记AU
浏览 0
提问于2018-06-14
得票数 4
1
回答
"ValueError:
roc
_curve() sklearn不支持多标签-指示格式“
python
、
machine-learning
、
scikit-learn
、
multilabel-classification
我试图从tpr(true positive rate)
和
fpr(false positive rate)获得
roc
_curve(),然后再绘制图表,看看我的模型如何处理多标签(500 label)不平衡的数据我正在计算每个标签预测的概率,以便改变阈值以获得更好的精确度、召回性
和
准确性,并在预测时得到大多数目标标签。, 0. ]]) fpr, tpr, t
浏览 7
提问于2020-12-10
得票数 1
3
回答
用于模型
验证
的
ROC
曲线
logistic-regression
、
binary-classification
、
roc
是否有一种通用的方法,可以用
ROC
曲线
来
验证
一个模型?我的理解是,我们可以
使用
它来比较不同的阈值
来
确定最佳值,甚至可以看到不同的组在k折叠
验证
中的行为方式.,但是它需要总是比较不同的阈值。有人告诉我,我应该考虑用
ROC
曲线
来
验证
我的模型(logistic回归),但它们并不意味着看
分类
的阈值,我一直被告知,它应该被用来
验证
模型之外的一般情况。模型本身甚至不
使用
交叉
<
浏览 0
提问于2022-11-21
得票数 1
1
回答
用于分割的DSC
和
IOU
python
、
tensorflow
、
keras
、
deep-learning
、
image-segmentation
在培训
和
验证
过程中,我一直试图以二进制
交叉
熵作为损失,并阅读dice_coeff
和
iou作为衡量标准。0.0260 - dice_coef: 0.9864 - iou: 0.9734 - val_loss: 0.0579 - val_dice_coef: 0.9583 - val_iou: 0.9216,我怀疑这是
浏览 6
提问于2021-05-30
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习学习笔记三
Matlab建立SVM,KNN和朴素贝叶斯模型分类绘制ROC曲线
机器学习概述与算法介绍(二)
周志华《机器学习》—第2章
周志华《机器学习》读书笔记(一)
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券