大家好,又见面了,我是你们的朋友全栈君。
1) 两个分布很接近,但是与0和1不接近,loss仍然很大,只适合分类
2)mse只计算两个差异,做回归用的,数据相同,bceloss比mseloss大。
3)SmoothL1Loss比mseloss小
4) bceloss收敛比较快
5)bceloss input必须是0-1之间,targets可以不是
6)target 是0.5 input 是0.4与0.6,loss无正负之分,只有大小之分。
import torch
conf_mask = torch.FloatTensor([0.0, 1.0, 0.0, 1.0, 1.0])
conf_data = torch.FloatTensor([0.1, 0.9, 0.0, 0.2, 0.2])
loss_fn = torch.nn.MSELoss() # reduce=False, size_average=False)
x= loss_fn(conf_data, conf_data).item()
print('self',x)
x= loss_fn(conf_data, conf_mask).item()
print('mse',x)
loss_fn = torch.nn.BCELoss() # reduce=False, size_average=False)
x = loss_fn(conf_data, conf_data).item()
print('self',x)
x = loss_fn(conf_data, conf_mask).item()
print('bce',x)
mseloss 个值比较
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/192157.html原文链接:https://javaforall.cn