前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >机器学习算法评价指标

机器学习算法评价指标

作者头像
分母为零
发布于 2020-05-11 03:08:49
发布于 2020-05-11 03:08:49
8620
举报
文章被收录于专栏:分母为零分母为零

机器学习算法评价指标

准确率、精准率和召回率

TP:样本为正,预测结果为正;

FP:样本为负,预测结果为正;

TN:样本为负,预测结果为负;

FN:样本为正,预测结果为负。

准确率、精准率和召回率的计算公式如下:

准确率(accuracy):(TP + TN )/( TP + FP + TN + FN)

精准率(precision):TP / (TP + FP),正确预测为正占全部预测为正的比例

召回率(recall):TP / (TP + FN),正确预测为正占全部正样本的比例

ROC和AUC

ROC曲线简介

ROC曲线则是从阈值选取角度出发来研究学习器泛化性能的有力工具。

若我们更重视“查准率”,则可以把阈值设置的大一些,让分类器的预测结果更有把握;若我们更重视“查全率”,则可以把阈值设置的小一些,让分类器预测出更多的正例。

ROC曲线的纵轴是“真正例率”(True Positive Rate, 简称TPR),横轴是“假正例率”(False Positive Rate,简称FPR)。

ROC曲线的意义

  • ROC曲线能很容易的查出任意阈值对学习器的泛化性能影响。
  • 有助于选择最佳的阈值。ROC曲线越靠近左上角,模型的准确性就越高。最靠近左上角的ROC曲线上的点是分类错误最少的最好阈值,其假正例和假反例总数最少。
  • 可以对不同的学习器比较性能。将各个学习器的ROC曲线绘制到同一坐标中,直观地鉴别优劣,靠近左上角的ROC曲所代表的学习器准确性最高。

AUC

ROC曲线下的面积,即AUC(Area Under ROC Curve)。AUC就是ROC曲线下的面积,衡量学习器优劣的一种性能指标。AUC是衡量二分类模型优劣的一种评价指标,表示预测的正例排在负例前面的概率。

ROC曲线用在多分类中是没有意义的。

  • AUC = 1,代表完美分类器
  • 0.5 < AUC < 1,优于随机分类器
  • 0 < AUC < 0.5,差于随机分类器

TPR和FPR

考虑一个二分问题,即将实例分成正类(positive)或负类(negative)。对一个二分问题来说,会出现四种情况。如果一个实例是正类并且也被 预测成正类,即为真正类(True positive),如果实例是负类被预测成正类,称之为假正类(False positive)。相应地,如果实例是负类被预测成负类,称之为真负类(True negative),正类被预测成负类则为假负类(false negative)。

TP:正确肯定的数目;

FN:漏报,没有正确找到的匹配的数目;

FP:误报,给出的匹配是不正确的;

TN:正确拒绝的非匹配对数;

真正类率(true positive rate ,TPR), 计算公式为TPR=TP/ (TP+ FN),刻画的是分类器所识别出的 正实例占所有正实例的比例。

另外一个是假正类率(false positive rate, FPR),计算公式为FPR= FP / (FP + TN),计算的是分类器错认为正类的负实例占所有负实例的比例。

KS值

KS 值表示了模型区分好坏客户的能力。KS 的取值范围在0.5和1之间,值越大,模型的预测准确性越好。一般,KS > 0.4 即认为模型有比较好的预测性能。

F1-Score

Precision和Recall指标有时是此消彼长的,即精准率高了,召回率就下降,在一些场景下要兼顾精准率和召回率,最常见的方法就是F-Measure,又称F-Score。F-Measure是P和R的加权调和平均。

欠拟合和过拟合

训练集和验证集准确率都很低,很可能是欠拟合。解决欠拟合的方法就是增加模型参数,比如,构建更多的特征,减小正则项。

训练集和验证集准确率相差太多。解决过拟合的方法有增大训练集或者降低模型复杂度,比如增大正则项,或者通过特征选择减少特征数。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-05-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 分母为零 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【机器学习】一文读懂分类算法常用评价指标
评价指标是针对将相同的数据,输入不同的算法模型,或者输入不同参数的同一种算法模型,而给出这个算法或者参数好坏的定量指标。
10JQKA
2019/08/29
4.2K0
机器学习分类模型10大评价指标
机器学习分类模型的评价指标是在衡量模型在未知数据集上的性能表现,通常基于混淆矩阵和相关的评价指标。
皮大大
2023/10/13
8130
机器学习算法常用指标总结
来自:Poll的笔记 链接:http://www.cnblogs.com/maybe2030/p/5375175.html(点击尾部阅读原文前往) 阅读目录 1、TPR、FPR&TNR 2、精确率Precision、召回率Recall和F1值 3、综合评价指标F-measure 4、ROC曲线和AUC 考虑一个二分问题,即将实例分成正类(positive)或负类(negative)。对一个二分问题来说,会出现四种情况。如果一个实例是正类并且也被 预测成正类,即为真正类(True positive),如果实
智能算法
2018/04/02
8360
机器学习算法常用指标总结
机器学习中的评价指标
在人工智能领域,机器学习的效果需要用各种指标来评价。本文将阐述机器学习中的常用性能评价指标,矢量卷积与神经网格的评价指标不包括在内。
Datawhale
2019/10/12
6940
机器学习中的评价指标
机器学习模型评估指标总结!
本文对机器学习模型评估指标进行了完整总结。机器学习的数据集一般被划分为训练集和测试集,训练集用于训练模型,测试集则用于评估模型。针对不同的机器学习问题(分类、排序、回归、序列预测等),评估指标决定了我们如何衡量模型的好坏。
Datawhale
2020/10/23
1.6K0
机器学习模型评估指标总结!
Python 深度学习目标检测评价指标
准确率 (Accuracy),混淆矩阵 (Confusion Matrix),精确率(Precision),召回率(Recall),平均正确率(AP),mean Average Precision(mAP),交除并(IoU),ROC + AUC,非极大值抑制(NMS)。
用户9925864
2022/07/27
8550
Python 深度学习目标检测评价指标
【干货】不止准确率:为分类任务选择正确的机器学习度量指标(附代码实现)
【导读】本文是数据科学研究者William Koehrsen撰写的技术博文,介绍了在分类模型中需要用到的度量标准。我们知道,准确率是我们在分类任务中最常用到的度量指标,但是单纯的准确率并不能说明模型的
WZEARW
2018/04/08
2.1K0
【干货】不止准确率:为分类任务选择正确的机器学习度量指标(附代码实现)
机器学习实战---详解模型评价指标
作者:王千发 编辑:王抒伟 零 全篇概述: 对于分类算法,我们熟知的评价指标是准确率(accuracy),但是在实际问题中,我们想要得到一个优秀的模型,仅仅使用准确率是不够的。 比如在,乳腺癌数据集中: 其中201名没有复发(标记为0),85名复发(标记为1)。 显然这是一个不平衡数据集,假如我们的分类模型将所有的患者都预测为未复发,那么这个模型的准确率是(201/286)*100%也就是70.28%,这是一个比较高的准确率了。 但是这样的模型实际上是很差的,将所有的复发的人都预测为不会复发,那么患者得到
机器学习算法工程师
2018/03/06
1.4K0
机器学习实战---详解模型评价指标
【机器学习 | 分类指标大全】全面解析分类评估指标:从准确率到AUC,多分类问题也不在话下, 确定不来看看?
🙋‍♂️声明:本人目前大学就读于大二,研究兴趣方向人工智能&硬件(虽然硬件还没开始玩,但一直很感兴趣!希望大佬带带)
计算机魔术师
2023/09/24
1K0
深入浅出机器学习算法评估指标
1.1 定义:混淆矩阵的每一列代表了预测类别,每一列的总数表示预测为该类别的数据的数目;每一行代表了数据的真实归属类别,每一行的数据总数表示该类别的数据实例的数目。每一列中的数值表示真实数据被预测为该类的数目。
唐国梁Tommy
2021/05/08
7060
深入浅出机器学习算法评估指标
【必备】目标检测中的评价指标有哪些?
上期我们一起学习了全卷积神经网络FCN,今天我们看下目标检测中的评价指标都有哪些?
智能算法
2020/05/08
17K0
机器学习评价指标合辑(Precision/Recall/F1score/P-R曲线/ROC曲线/AUC)
在训练模型时,我们需要使用各种评价指标评估模型的效果。然而,在我初入门时,很多概念都搞不清楚,网上大部分总结或者比较简单,或者杂糅在一起,有点凌乱,甚至可能还有错误,在此抛砖引玉,总结一下各种常用的评价指标,以备使用时查阅,如有错误欢迎指出。
枫桦
2022/08/02
2.1K0
机器学习评价指标合辑(Precision/Recall/F1score/P-R曲线/ROC曲线/AUC)
一文读懂机器学习分类模型评价指标
解决一个机器学习问题都是从问题建模开始,首先需要收集问题的资料,深入理解问题,然后将问题抽象成机器可预测的问题。在这个过程中要明确业务指标和模型预测目标,根据预测目标选择适当指标用于模型评估。接着从原始数据中选择最相关的样本子集用于模型训练,并对样本子集划分训练集和测试集,应用交叉验证的方法对模型进行选择和评估。
统计学家
2019/07/17
2.7K0
一文读懂机器学习分类模型评价指标
机器学习性能评价指标汇总
AUC 是 ROC (Receiver Operating Characteristic) 曲线以下的面积, 介于0.1和1之间。Auc作为数值可以直观的评价分类器的好坏,值越大越好。
莫斯
2020/09/10
1.2K0
机器学习性能评价指标汇总
分类的评估指标及不平衡数据的处理
在现实环境中,采集的数据(建模样本)往往是比例失衡的。比如:一个用于模型训练的数据集中,A 类样本占 95%,B 类样本占 5%。
用户10950404
2024/07/30
1550
分类的评估指标及不平衡数据的处理
大数据技术之_19_Spark学习_08_Spark 机器学习_01_机器学习概述 + 机器学习的相关概念 + 算法常用指标
  一组数据的集合被称作数据集,用于模型训练的数据集叫训练集,用于测试的数据集叫测试集。一个数据集包含多条数据,一条数据包含多个属性。
黑泽君
2019/05/14
5520
大数据技术之_19_Spark学习_08_Spark 机器学习_01_机器学习概述 + 机器学习的相关概念 + 算法常用指标
[白话解析] 通过实例来梳理概念 :准确率 (Accuracy)、精准率(Precision)、召回率(Recall)和F值(F-Measure)
二分类评估是对二分类算法的预测结果进行效果评估。本文将构造出一个水泊梁山的具体实例带领大家梳理相关概念。
罗西的思考
2020/09/07
5.9K0
[白话解析] 通过实例来梳理概念 :准确率 (Accuracy)、精准率(Precision)、召回率(Recall)和F值(F-Measure)
模型评估:评价指标-附sklearn API
主要有分类(classification)、回归(regression)、排序(ranking)、聚类(clustering)、热门主题模型(topic modeling)、推荐(recommendation)等。
百川AI
2021/10/19
2.4K0
机器学习必刷题-基础概念篇(1):为什么用AUC做评价指标?
由于AUC关联的内容比较多,面试时问得也非常细,因此,我们将按照以下顺序对AUC进行重点介绍。
小萌哥
2020/07/20
4K0
贾尚文_roc指标详解及实战用法
其中,TP(真正,True Positive)表示真正结果为正例,预测结果也是正例;FP(假正,False Positive)表示真实结果为负例,预测结果却是正例;TN(真负,True Negative)表示真实结果为正例,预测结果却是负例;FN(假负,False Negative)表示真实结果为负例,预测结果也是负例。显然,TP+FP+FN+TN=样本总数。
全栈程序员站长
2022/09/28
1K0
贾尚文_roc指标详解及实战用法
推荐阅读
相关推荐
【机器学习】一文读懂分类算法常用评价指标
更多 >
LV.0
这个人很懒,什么都没有留下~
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档