前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习中分类准确率的评估方法

机器学习中分类准确率的评估方法

作者头像
mythsman
发布2022-11-14 15:55:42
6180
发布2022-11-14 15:55:42
举报
文章被收录于专栏:mythsman的个人博客

对机器学习的分类结果进行分析是一个很重要的过程,之前一直忽略了这一个过程,一直到使用了Scikit-learn之后才发现有一堆不懂的名词需要学习。下面主要解释下混淆矩阵、准确率、召回率、f1-score等概念。这些概念其实也是模式识别和信息检索里面经常碰到的东西。

混淆矩阵(Confusion Matrix)

混淆矩阵其实很好理解,就是把预测值和实际值写在同一个矩阵里。假设总共需要分为两类,那么混淆矩阵就是2x2的大小。每一行就是每一类的实际值,每一列就代表的是每一类的预测值。具体含义见下面的表格:

预测类1预测类2预测类3实际类14352实际类22453实际类30149

比方下面这个混淆矩阵:

代码语言:javascript
复制
[515  34]
[ 80 262]

表达的含义是对于一个01的二分类问题,实际值是0且预测值也为0的有515个,实际值是0但预测值为1的有34个,实际值是1但预测值也为0的有80个,实际值是1但预测值为1的有262个。

Accuracy、Recall、F1-score的含义

准确率和召回率是最常用的评估方法,听上去玄乎其实很简单。

准确率是指对于预测而言,我的预测正确的概率。比如上面的那个混淆矩阵表示的结果,预测值为0的准确率就是515/(515+80)=0.87。

召回率是指对于实际而言,我的实际结果能够被正确预测出来的概率。比如上面的混淆矩阵中,实际值为0的召回率就是515/(515+34)=0.94

分出这两个判断标准也是有着实际的重要意义的。

比如通常我们在判断正确率的时候,用Accuracy表示就可以了,但是如果我们面对的是类似地震的预测时,我们并不特别在意他实际的准确率,宁可多预警几次来避免大的损失。此时召回率就显得特别重要了。

最后F1-score其实是准确率和召回率的综合考量,f1score=\frac{2*Accuracy*Recall}{Accuracy+Recall}

相关参考

机器学习 F1-Score, recall, precision 召回率 Recall、精确度Precision、准确率Accuracy、虚警、漏警等分类判定指标 准确率(Accuracy), 精确率(Precision), 召回率(Recall)和F1-Measure

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 混淆矩阵(Confusion Matrix)
  • Accuracy、Recall、F1-score的含义
  • 相关参考
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档