前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习: 分类 目标函数 (交叉熵误差(CE) -> 焦点误差(FL))

深度学习: 分类 目标函数 (交叉熵误差(CE) -> 焦点误差(FL))

作者头像
JNingWei
发布2018-09-27 15:05:52
1.6K0
发布2018-09-27 15:05:52
举报
文章被收录于专栏:JNing的专栏JNing的专栏

Introduction

Note:

CE

交叉熵误差 (Cross-entropy Error,CE) :

CE(y^)=−1n∑k=1n[I{y=y′}log(pt)]CE(y^)=−1n∑k=1n[I{y=y′}log⁡(pt)]

CE(\hat{y}) = - \frac{1}{n} \sum_{k=1}^n [I \{y=y'\} \log(p_t)]

Note

  • nnn:样本数。
  • 只对 ground_truth所对应的那一个单类进行响应计算

FL

焦点误差(Focal Loss,FL),于2017年提出。

其设计如下:

FL(y^)i=(1−pt)γCE(y^)iFL(y^)i=(1−pt)γCE(y^)i

FL(\hat{y})_{i} = (1-p_t)^\gamma CE(\hat{y})_{i}

CE -> FL

FL的出现极大地缓解了CE无法克服的“类别不平衡问题”。FL整体降低了loss,但对量少类的loss削减幅度较小,因此量少类loss所占总loss的比例大大升高。


[1] Deep Learning [2] 深度学习: Softmax 函数 [3] 深度学习: 目标函数 [4] 交叉熵代价函数

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018年04月07日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Introduction
    • CE
      • FL
        • CE -> FL
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档