模型评估、选择与验证——损失函数

0-1损失函数

  • 模型原型

sklearn.metrics.zero_one_loss(y_true, y_pred, normalize=True, sample_weight=None)

参数

  • y_true :样本集中每个样本对应的真实值
  • y_pred :学习器对样本集中每个样本的预测的预测值
  • normalize
    • True:返回分类样本的比例
    • False:返回分类样本的数量
  • sample_weight : 样本权重,默认为1

返回值

  • 0-1损失函数值

示例

from sklearn.metrics import zero_one_loss

y_true=[1,1,1,1,1,0,0,0,0,0]
y_pred=[0,0,0,1,1,1,1,1,0,0]
print('zero_one_loss<fraction>:',zero_one_loss(y_true,y_pred,normalize=True))
print('zero_one_loss<num>:',zero_one_loss(y_true,y_pred,normalize=False))

对数损失函数

模型原型

sklearn.metrics.log_loss(y_true, y_pred, eps=1e-15, normalize=True, sample_weight=None, labels=None)
参数

  • y_true :样本集中每个样本对应的真实值
  • y_pred :学习器对样本集中每个样本的预测的预测值
  • eps:对数损失值
  • normalize
    • True:返回分类样本的比例
    • False:返回分类样本的数量
  • sample_weight : 样本权重,默认为1

返回值

  • 0-1损失函数值

示例

from sklearn.metrics import log_loss

y_true=[1,1,1,0,0,0]
y_pred=[
    [0.1,0.9],
    [0.2,0.8],
    [0.3,0.7],
    [0.7,0.3],
    [0.8,0.2],
    [0.9,0.1]
]
print('log_loss<average>:',log_loss(y_true,y_pred,normalize=True))
print('log_loss,total.:',log_loss(y_true,y_pred,normalize=False))

猜你喜欢

转载自blog.csdn.net/weixin_39777626/article/details/79936308
今日推荐