腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1805)
视频
沙龙
1
回答
如何
计算
整个
时期
的
roc
auc
分数
,
如
平均
精度
?
、
、
、
我在PyTorch中实现了一个训练循环,对于指标,我想使用
的
ROC
AUC
分数
。 我可以使用sklearn
的
实现来
计算
单个预测
的
得分,但在想象
如何
使用它来
计算
整个
时期
的
平均
得分时有一点困难。有没有人能把我推向正确
的
方向?
浏览 10
提问于2020-05-13
得票数 0
回答已采纳
2
回答
Keras:不同
的
验证AUROC在训练期间和划时代结束
、
、
我得到了不同
的
AUROC,取决于我
计算
它
的
时间。我
的
代码是 # any tensorflow metric value, update_op = tf.metrics.
auc
是一个Keras回调函数,它在每个时代结束时使用sklearn
的
roc
_
auc
_score
计算
AUROC。: 0.7747 - val_
au
浏览 1
提问于2018-07-11
得票数 2
1
回答
交叉验证时
如何
获得
AUC
-
ROC
而不是精确性?
、
、
交叉验证给出了每个折叠
的
准确性,因为类是不平衡
的
,准确性是不正确
的
度量。我想得到
AUC
-
ROC
而不是准确性。
浏览 0
提问于2019-04-20
得票数 0
回答已采纳
1
回答
运用Scikit-Learn
计算
平均
AUC
的
差异
、
、
、
、
我有以下代码:from sklearn.metrics import
roc
_curve,
auc
mean_tpr[0] = 0.0 0.700 方法1按
的
建议,通过循环
计算</em
浏览 4
提问于2016-11-07
得票数 1
回答已采纳
1
回答
在高度不平衡
的
数据中混淆F1
分数
和
AUC
分数
,同时使用5倍交叉验证
、
、
、
然而,我得到了相当低
的
平均
精度
分数
和F-1
分数
。我使用加权逻辑回归来帮助我处理不平衡
的
数据,因为SMOTE在存在极不平衡
的
数据时不能很好地工作。另外,我在sklearn库中看到了F-1
分数
的
几个选项。tprs[-1][0] = 0.0 aucs.append(
roc
_
auc
)
浏览 0
提问于2021-04-03
得票数 1
2
回答
sklearn.metrics中
的
AUC
分数
是多少?
、
、
在中讨论了
AUC
值,但这不同于常规
的
roc
_
auc
_score。我没有看到对它
的
描述,它是什么,它是用来做什么
的
?
浏览 57
提问于2016-07-31
得票数 2
回答已采纳
1
回答
AUC
是否可以作为敏感性和特异性
的
平均
值
计算
?
、
、
我很少读过关于
AUC
计算
的
论文,下面的文章提到
AUC
可以
计算
为分类任务绩效测度
的
系统分析 请让我知道它是否正确。
浏览 0
提问于2017-11-30
得票数 0
1
回答
选择基于F1评分
的
模型(在阈值=0.5处
计算
)是否等同于根据精确召回曲线下
的
面积选择模型?
、
、
提供了一个很好
的
总结,在准确性相对于澳大利亚
的
F1和AUPR。如果是,为什么?
浏览 1
提问于2020-03-18
得票数 0
回答已采纳
1
回答
BayesSearchCV类混淆中
的
评分参数
、
、
我正在使用来自scikit-optimize
的
scikit-optimize来训练一个相当不平衡
的
数据集上
的
模型。据我所知,
精度
或
ROC
AUC
将是不平衡数据集
的
最佳度量标准。对于评分参数,我指定了
roc
_
auc
,我假设它将是监视结果中最佳参数
的
主要度量。因此,当我调用knn_b.best_params_时,我应该有
roc
_
auc
度量更高
的
参数。对吗?mean_t
浏览 6
提问于2022-03-05
得票数 0
1
回答
K-折叠交叉验证查询
、
、
、
、
我正在尝试执行K折叠交叉验证和GridSearchCV,以优化我
的
梯度提升模型-遵循链接- 。1)
如何
计算
0.814365
的
精度
?如果将cv_folds=5更改为cv_folds=any整数,则
精度
仍为0.814365。事实上,删除cv_folds和输入performCV=False也提供了相同
的
精度
。(注意:我
的
sk学习编号CV 80/20列车测试
的</e
浏览 1
提问于2018-09-14
得票数 0
回答已采纳
1
回答
为什么我会得到不同
的
roc
_
auc
_scores?
、
我正在处理一个二进制分类问题,并使用下面的代码来使用5倍交叉验证来查找
ROC
_
AUC
分数
(每倍)。(
roc
_
auc
)plt.plot([0,1]() 除了
ROC
_
AUC
分数
之外,我还想
计算
其他性能指标,<em
浏览 1
提问于2021-04-14
得票数 0
回答已采纳
3
回答
在机器学习中数据集不平衡
的
情况下,
AUC
是比准确性更好
的
指标吗?如果不是,那么哪个是最好
的
指标?
、
、
、
、
auc
在处理不平衡数据方面是否更好。在大多数情况下,如果我处理
的
是不平衡
的
数据,那么准确性并不能给出正确
的
想法。尽管准确率很高,但模型
的
性能很差。如果不是
auc
,这是处理不平衡数据
的
最好方法。
浏览 146
提问于2019-02-26
得票数 0
回答已采纳
1
回答
我能用Google从AutoML视觉
计算
AUC
值和
ROC
曲线吗?
、
、
、
我可以知道
如何
从AutoML视觉训练模型中
计算
AUC
值和
ROC
曲线吗?谷歌只提供
平均
精度
和精确召回曲线进行评估(包括混淆矩阵)。我能知道处理这件事有什么方法吗?非常感谢!
浏览 9
提问于2020-03-07
得票数 0
回答已采纳
1
回答
为什么grid_scores_比全套训练
的
分数
高?(滑雪,Python,GridSearchCV)
、
grid_search_object = GridSearchCV(pipeline_object, tuned_parameters, cv = cross_validation_object, scoring = '
roc
_
auc
')grid_search_object.best_score_然而,当我用最好
的
估计器来给
整个
训练集评分时,我
浏览 0
提问于2014-08-09
得票数 0
回答已采纳
1
回答
分类模型
的
best_score_与accuracy_score_和AUROC
的
性能评分(二进制)
、
有人能用通俗易懂
的
英语告诉我,区别是什么,使用哪一种和什么时候使用?fitted_models.items(): pred = [p[1] for p in pred] print(name,
roc
_
auc
_score
浏览 5
提问于2022-10-05
得票数 1
1
回答
Scikit-学习和黄砖给出不同
的
分数
、
、
、
我使用sklearn
计算
分类器和黄砖
的
平均
精度
和
roc
_
auc
,绘制
roc
_
auc
和精确回忆曲线。问题是,包在这两个指标中都给出了不同
的
分数
,我不知道哪一个是正确
的
。LogisticRegression(random_state=seed)
roc
_
a
浏览 2
提问于2020-11-02
得票数 2
回答已采纳
2
回答
带有multi_class=="ovr“
的
sklearn
roc
_
auc
_score应该没有
平均
值可用
、
、
、
我正在尝试使用sklearn
的
函数来
计算
多类问题
的
AUC
分数
。我有形状n_samples,n_classes
的
预测矩阵和形状n_samples
的
基本事实向量,分别命名为np_pred和np_label。
roc</e
浏览 1
提问于2020-01-09
得票数 7
回答已采纳
1
回答
如何
解释近乎完美的准确率和
AUC
-
ROC
,但F1为零-
分数
,
精度
和召回率
、
、
、
他们处于极不平衡
的
数据中(大约14300:1)。我得到了几乎100%
的
准确率和
ROC
-
AUC
,但准确率,召回率和f1
分数
为0。我理解在非常不平衡
的
数据中,准确性通常是没有用
的
,但为什么
ROC
-
AUC
度量也接近完美?from sklearn.metrics import
roc
_curve,
auc
y_score = classifierUsed2.deci
浏览 0
提问于2016-01-10
得票数 22
回答已采纳
2
回答
如何
计算
三类
ROC
_
AUC
成绩
、
、
、
我有一个有3个类标签(0,1,2)
的
数据。我试着做
ROC
曲线。并使用pos_label参数来实现。个图,现在我在
计算
AUC
分数
时遇到了问题。
如何
将3张图和1幅图进行
平均
,然后
计算
出
Roc
_
AUC
评分。我被这个metrics.
roc
_
auc
_score错误了(Ytest,y_pred_prob)请帮帮我。生成3条
roc
曲线。因
浏览 2
提问于2019-05-20
得票数 0
1
回答
检测类
的
sigmoid输出返回不正确
的
性能。
、
、
、
报告
的
f-得分、精确性和回忆似乎都考虑了这两个类别,例如,真正
的
阳性似乎是正确分类样本
的
总数,而不是属于“1”类
的
、被正确分类
的
样本总数。因此,我非常惊讶地看到报告
的
train_y_f1
的
值很高(最好
的
结果是大约。94%,一次后)。 为了检查这一点,我使用提供
的
脚本predict_csv.py手工
计算
f-得分,然后加载预测。经过一些调查后,我发现MLP对于每个类都有一个输出,并且我验证了(手工
计算
它
浏览 2
提问于2015-04-11
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Matlab建立SVM,KNN和朴素贝叶斯模型分类绘制ROC曲线
如何评估机器学习模型的性能
机器学习算法常用性能指标
机器学习算法常用指标总结
智慧工地算法视频分析服务器技术知识:如何评估视频分析深度学习模型的性能?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券