ROC Recall Precision Accuracy FPR TPR TAR FAR

这里写图片描述

分类

混淆矩阵

这里写图片描述
这里写图片描述 probablity distribution

  • True Positive(真正, TP):将正类预测为正类数.
  • True Negative(真负 , TN):将负类预测为负类数.
  • False Positive(假正, FP):将负类预测为正类数 →误报 (Type I error).
  • False Negative(假负 , FN):将正类预测为负类数 →漏报 (Type II error).

  • 召回率(Recall) TPR = TP/P = TP/(TP+FN) 召回率是针对我们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了 (分母是原来样本中所有的正样本数)

  • FPR = FP/N = FP/(FP+TN)
  • 精确率(Precision) = TP/(TP+FP) 分母是预测为正的样本数 表示的是预测为正的样本中有多少是真正的正样本 (分母是预测为正的样本数)
  • 准确率(Accuracy) ACC = (TP + TN) / (P+N)
  • 此外,还有 F1 值,是精确率和召回率的调和均值, 
    2F1=1P+1R F1=2TP2TP+FP+FN(3)(3)2F1=1P+1R F1=2TP2TP+FP+FN

在信息检索领域,精确率和召回率又被称为查准率和查全率, 
查准率=检索出的相关信息量 / 检索出的信息总量 
查全率=检索出的相关信息量 / 系统中的相关信息总量

ROC

在一个二分类模型中,对于所得到的连续结果,假设已确定一个阀值,比如说 0.6,大于这个值的实例划归为正类,小于这个值则划到负类中。如果减小阀值,减到0.5,固然能识别出更多的正类,也就是提高了识别出的正例占所有正例 的比类,即TPR,但同时也将更多的负实例当作了正实例,即提高了FPR。为了形象化这一变化,在此引入ROC,ROC曲线可以用于评价一个分类器。

这里写图片描述

这里写图片描述 probablity distribution

这里写图片描述

扫描二维码关注公众号,回复: 2639082 查看本文章

ROC曲线上的每一个点对应于一个threshold,对于一个分类器,每个threshold下会有一个TPR和FPR。(大于threshold的实例划归为正类)

  • Threshold最小时,TN=FN=0 (threshold on the most left in probablity distribution),对应于ROC右上角的点(1,1)
  • 随着阈值threshold增加,TP和FP都减小,TPR和FPR也减小,ROC点向左下移动;
  • Threshold最大时,TP=FP=0 (threshold on the most right in probablity distribution),对应于ROC原点;

0.0001 FAR , TAR?

AUC

AUC(Area Under Curve)被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。

The AUC value is equivalent to the probability that a randomly chosen positive example is ranked higher than a randomly chosen negative example. 翻译过来就是,随机挑选一个正样本以及一个负样本,分类器判定正样本的值高于负样本的概率就是 AUC 值。

简单说:AUC值越大的分类器,正确率越高。

  • AUC=1,完美分类器,采用这个预测模型时,不管设定什么阈值都能得出完美预测。绝大多数预测的场合,不存在完美分类器
  • 0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
  • AUC=0.5,跟随机猜测一样(例:丢铜板),模型没有预测价值。
  • AUC<0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测,因此不存在 AUC<0.5 的情况。 
    这里写图片描述

既然已经这么多评价标准,为什么还要使用ROC和AUC呢?因为ROC曲线有个很好的特性:当测试集中的正负样本的分布变化的时候,ROC曲线能够保持不变。在实际的数据集中经常会出现类不平衡(class imbalance)现象,即负样本比正样本多很多(或者相反)

PR曲线

precision–recall

回归

平均绝对误差

平均绝对误差MAE(Mean Absolute Error)又被称为 l1 范数损失(l1-norm loss): 
MAE(y,y^)=1nsamples∑i=1nsamples|yi−y^i|MAE(y,y^)=1nsamples∑i=1nsamples|yi−y^i|

平均平方误差

平均平方误差 MSE(Mean Squared Error)又被称为 l2范数损失(l2-norm loss):

MSE(y,y^)=1nsamples∑i=1nsamples(yi−y^i)2MSE(y,y^)=1nsamples∑i=1nsamples(yi−y^i)2

Ref:

http://charleshm.github.io/2016/03/Model-Performance/ 
http://zhwhong.ml/2017/04/14/ROC-AUC-Precision-Recall-analysis/

猜你喜欢

转载自blog.csdn.net/u011808673/article/details/81190475