前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >pytorch中的loss函数_pytorch loss不下降

pytorch中的loss函数_pytorch loss不下降

作者头像
全栈程序员站长
发布2022-10-02 11:48:34
5820
发布2022-10-02 11:48:34
举报

大家好,又见面了,我是你们的朋友全栈君。

1) 两个分布很接近,但是与0和1不接近,loss仍然很大,只适合分类

2)mse只计算两个差异,做回归用的,数据相同,bceloss比mseloss大。

3)SmoothL1Loss比mseloss小

4) bceloss收敛比较快

5)bceloss input必须是0-1之间,targets可以不是

6)target 是0.5 input 是0.4与0.6,loss无正负之分,只有大小之分。

代码语言:javascript
复制
import torch

conf_mask = torch.FloatTensor([0.0, 1.0, 0.0, 1.0, 1.0])
conf_data = torch.FloatTensor([0.1, 0.9, 0.0, 0.2, 0.2])

loss_fn = torch.nn.MSELoss() # reduce=False, size_average=False)

x= loss_fn(conf_data, conf_data).item()
print('self',x)

x= loss_fn(conf_data, conf_mask).item()
print('mse',x)

loss_fn = torch.nn.BCELoss()  # reduce=False, size_average=False)

x = loss_fn(conf_data, conf_data).item()
print('self',x)
x = loss_fn(conf_data, conf_mask).item()
print('bce',x)

mseloss 个值比较࿱

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/192157.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2022年9月18日 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档