pytorch mseloss bceloss 对比

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/jacke121/article/details/83753349

1) 两个分布很接近,但是与0和1不接近,loss仍然很大,只适合分类

2)mse只计算两个差异,做回归用的,数据相同,bceloss比mseloss大。

3)SmoothL1Loss比mseloss小

4) bceloss收敛比较快

5)bceloss input必须是0-1之间,targets可以不是

import torch

conf_mask = torch.FloatTensor([0.0, 1.0, 0.0, 1.0, 1.0])
conf_data = torch.FloatTensor([0.1, 0.9, 0.0, 0.2, 0.2])

loss_fn = torch.nn.MSELoss() # reduce=False, size_average=False)

x= loss_fn(conf_data, conf_data).item()
print('self',x)

x= loss_fn(conf_data, conf_mask).item()
print('mse',x)

loss_fn = torch.nn.BCELoss()  # reduce=False, size_average=False)

x = loss_fn(conf_data, conf_data).item()
print('self',x)
x = loss_fn(conf_data, conf_mask).item()
print('bce',x)

猜你喜欢

转载自blog.csdn.net/jacke121/article/details/83753349