机器学习模型准确率,精确率,召回率,F-1指标及ROC曲线

01准确率,精确率,召回率,F-1指标及ROC曲线
假设原样本有两类,正样本True和负样本False
正样本 -------------------------------True
负样本 --------------------------------False
真 正样本 True Positive(TP)----------将正类预测为正类
真 负样本 True Negative(TN)--------将负类预测为负类
假正样本-------负样本---------False Positive(FP)-------将负类预测为正类
假负样本----------正样本--------False Negative(FN)-----将正类预测为负类
在这里插入图片描述
1.准确率(accuracy)计算公式
在这里插入图片描述 被分对的样本个数除以总的样本个数
注:准确率是最常见的评价指标,通常来说,正确率越高,分类器越好
2.精确率(Precision)
精确率定义为: 预测的正样本中正样本所占的比率
在这里插入图片描述
3.召回率(Recall):实际的正样本中正样本被分为正例的比率
在这里插入图片描述
4.综合评价指标F-1
在这里插入图片描述
注:可知F1综合了P和R的结果,当F1较高时则能说明试验方法比较有效。
5.ROC曲线和AUC
ROC曲线是以假正率(FP_rate)真正率(TP_rate)为轴的曲线,ROC曲线下面的面积我们叫做AUC
在这里插入图片描述
所有的负样本中,被预测为正样本的比率
在这里插入图片描述
所有的正样本中,被预测为正样本的比率

在这里插入图片描述
AUC = 1,是完美分类器,采用这个预测模型时,不管设定什么阈值都能得出完美预测。绝大多数预测的场合,不存在完美分类器。
  0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
  AUC = 0.5,跟随机猜测一样,模型没有预测价值。
  AUC < 0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测。

猜你喜欢

转载自blog.csdn.net/qq_23664173/article/details/83010348