前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >f1 score 代码_f1 score loss 实现问题「建议收藏」

f1 score 代码_f1 score loss 实现问题「建议收藏」

作者头像
全栈程序员站长
发布2022-11-04 15:11:24
3830
发布2022-11-04 15:11:24
举报
文章被收录于专栏:全栈程序员必看

在paddle上实现了一个f1 loss函数:

def _compute_loss(self, dec_output): tp = fluid.layers.sum(fluid.layers.cast(self.label * dec_output, dtype=”float32″)) tn = fluid.layers.sum(fluid.layers.cast((1 -self.label) * (1 – dec_output), dtype=”float32″)) fp = fluid.layers.sum(fluid.layers.cast((1 -self.label) * dec_output, dtype=”float32″)) fn = fluid.layers.sum(fluid.layers.cast(self.label * (1 – dec_output), dtype=”float32″)) print (“shape:loss”, tp.shape, tn.shape, fp.shape, fn.shape) p = tp / (tp + fp + 1e-07) r = tp / (tp + fn + 1e-07) f1 = 2 * p * r / (p + r + 1e-07) print (“f1_shape “, f1.shape) print (“mean_shape “, fluid.layers.mean(f1)) print (“loss_shape”, 1 – fluid.layers.mean(f1)) return 1 – fluid.layers.mean(f1), dec_output, self.label

输出的shape如下:

shape:loss (-1L, -1L, 3L) (-1L, -1L, 3L) (-1L, -1L, 3L) (-1L, -1L, 3L)

f1_shape (-1L, -1L, 3L)

mean_shape name: “mean_0.tmp_0”

type {

type: LOD_TENSOR

lod_tensor {

tensor {

data_type: FP32

dims: 1

}

}

}

persistable: false

loss_shape name: “tmp_25”

type {

type: LOD_TENSOR

lod_tensor {

tensor {

data_type: FP32

dims: 1

}

lod_level: 0

}

}

实际以此loss做训练,结果很怪异,能帮忙看下原因吗,在keras实现此loss函数无问题

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/182128.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年10月14日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档