前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >分类模型评估方法_政策评估的模型与方法

分类模型评估方法_政策评估的模型与方法

作者头像
全栈程序员站长
发布2022-11-10 15:30:47
4430
发布2022-11-10 15:30:47
举报
文章被收录于专栏:全栈程序员必看

大家好,又见面了,我是你们的朋友全栈君。

上图矩阵中1是正例,0是只负例

对于二分类问题,可以将真实类别和分类器预测类别组合为:

真正例(true positive TP):真实类别为正例,预测类别为正例;

假正例(false positive FP): 真实类别为负例,预测类别为正例;

假负例(false negative FN):真实类别为正例,预测类别为负例;

真负例(true negative TN):真实类别为负例,预测类别为负例;

分类模型评价指标有:

1.错误率和精度

错误率(error_rate)和精度(accuracy)是分类任务中最常用的两个指标,既适用于二分类任务也适用于多分类任务;

error_rate = (FP+FN)/(P+N)

accuracy = (TP+TN)/(P+N)

accuracy = 1-error_rate

错误率是分类错误的样本数占样本总数的比例,精度则是分类正确的样本数占样本总数的比例;

error_rate =

2.查准率、查全率和F1

查准率(准确率)P = TP/(TP+FP)

查全率(召回率)R = TP/(TP+FN)

F1值:F1 = 2/(1/R + 1/P) = 2*P*R/(P+R)

查准率和查全率是一对矛盾的指标,一般来说,查准率高时,查全率往往偏低,而查全率高时,查准率往往偏低;平衡点BEP是查准率= 查全率时的取值,当一个学习期的BEP高于另一个学习器的,则可以认为该学习器优于另一个;

但BEP过于简化,更常用的是F1值;另外再一些应用中可能对查准率和查全率的重视程度不同,可以对它们施加不同的偏好,定义为:

3.ROC和AUC

ROC曲线的纵轴是“真正例率”(TPR),横轴是假正例率(FPR),

其中TPR = TP/(TP+FN), FPR = FP/(TN+FP)

绘图过程:给定m+个正例率和m-个负例率,根据学习器的预测结果对样例进行排序,然后把分类阈值设为最大,即把所有样本都预测为反例,此时TPR和FPR都为0,在坐标(0,0)处标记一个点,然后,将分类阈值依次设为每个样例的预测值,即依次将每个样例预测为正例;

若一个分类器的ROC曲线将另一个分类器的曲线完全包住,则可认为该分类器优于另一个分类器;若两个分类器之间有交叉,则比较难比较优劣,此时较为合理的判断指标是AUC,即ROC曲线下的面积。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/188835.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年9月27日 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档