前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >F1 - Score\Precision\Recall The Single number evaluation metric(单一评估标准)

F1 - Score\Precision\Recall The Single number evaluation metric(单一评估标准)

作者头像
Steve Wang
发布2019-05-29 00:15:18
5160
发布2019-05-29 00:15:18
举报
文章被收录于专栏:从流域到海域从流域到海域

以下指标可以作为衡量分类问题的准确度的标准

在这里插入图片描述
在这里插入图片描述
Precision

Precision(%)=True positivenumber of predicted positive∗100=True positiveTrue positive+False Positive∗100\frac{True \ positive}{number\ of \ predicted \ positive}*100=\frac{True \ positive}{True \ positive + False \ Positive}*100number of predicted positiveTrue positive​∗100=True positive+False PositiveTrue positive​∗100

Recall

Recall(%)=True positivenumber of actually positive∗100=True positiveTrue positive+False Negative∗100\frac{True \ positive}{number\ of \ actually \ positive}*100=\frac{True \ positive}{True \ positive + False \ Negative}*100number of actually positiveTrue positive​∗100=True positive+False NegativeTrue positive​∗100

说明

当你有多个Classifiers时,每一个Classifier的Precision和Recall可能都不一样,而且Precision和Recall之间是存在取舍关系的。因此以Precision和Recall作为衡量指标是不太可行的,你无法一眼看出哪个Classifier表现得更好。

直观而言,你会想到以(Precision+Recall)/2(Precision+Recall)/2(Precision+Recall)/2作为一个单一的度量指标,但直接求平均数并不太科学,我们有更好的求平均的方法F1 Score,称作调和平均(Harmonic)。

F1 Score

F1Score=21P+1RF_1Score=\frac{2}{\frac{1}{P}+\frac{1}{R}}F1​Score=P1​+R1​2​

你可以简单理解F1 Score为P和R的“平均”。

百度百科里有全面的解释:

在这里插入图片描述
在这里插入图片描述

使用Dev Set和单一的评估标准能够加速你学习的迭代过程。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018年12月10日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 以下指标可以作为衡量分类问题的准确度的标准
    • Precision
      • Recall
        • 说明
          • F1 Score
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档