机器学习之算法模型评价指标

机器学习评价指标

1、几个概念

精确率:Precision——”正确被检索的item(TP)”占所有”实际被检索到的(TP+FP)”的比例

召回率:Recall——“正确被检索的item(TP)”占所有”应该检索到的item(TP+FN)”的比例

F-measure= 正确率 * 召回率 * 2 / (正确率 + 召回率) (F 值即为正确率和召回率的调和平均值)

准确率:Accuracy—–正确分类的样本数与总样本数之比 。

这里写图片描述

这里写图片描述

2、AUC

​ AUC是一个模型评价指标,用于二分类模型的评价。AUC是“Area under Curve(曲线下的面积)”的英文缩写,而这条“Curve(曲线)”就是ROC曲线(也叫做受试者工作特征曲线)。

​ 为什么要用AUC作为二分类模型的评价指标呢?为什么不直接通过计算准确率来对模型进行评价呢?

​ 答案是这样的:机器学习中的很多模型对于分类问题的预测结果大多是概率,即属于某个类别的概率,如果计算准确率的话,就要把概率转化为类别,这就需要设定一个阈值,概率大于某个阈值的属于一类,概率小于某个阈值的属于另一类,而阈值的设定直接影响了准确率的计算。
例如:

​ 数据集一共有5个样本,真实类别为(1,0,0,1,0);

​ 二分类机器学习模型,得到的预测结果为(0.5,0.6,0.4,0.7,0.3)。

​ 将预测结果转化为类别——预测结果降序排列,以每个预测值(概率值)作为阈值,即可得到类别。

'''
真实类别为(1,0,0,1,0);
预测结果为(0.5,0.6,0.4,0.7,0.3)
'''
1、当阈值 >=0.5 类别为1,否则为0
预测结果      准确率
[1,1,0,1,0] = 0.8

2、阈值 >=0.4 --->1
[1,1,1,1,0] -->0.6

3、阈值 > 0.6 --->1
[0,0,0,1,0] -->0.8

可以看出阈值的设定直接影响了准确率的计算。使用AUC可以解决这个问题,接下来详细介绍AUC的计算。

​ 计算每个阈值下的“True Positive Rate”、“False Positive Rate”。以“True Positive Rate”作为纵轴,以“False Positive Rate”作为横轴,画出ROC曲线,ROC曲线下的面积,即为AUC的值
那么什么是“True Positive Rate”、“False Positive Rate”?
首先,我们看如下的图示:

0:负样本

1:正样本

表格对角线的值都是正确预测的值。

这里写图片描述

然后,我们计算两个指标的值:

TruePositiveRate = TP/(TP+FN),
  代表将真实正样本划分为正样本的概率 

FalsePositiveRate = FP/(FP+TN),
  代表将真实负样本划分为正样本的概率 
 

 接着,我们以“True Positive Rate”作为纵轴,以“False Positive Rate”作为横轴,画出ROC曲线。类似下图:

这里写图片描述

​ ROC曲线下的面积,即为AUC的值,越大,说明模型预测效果越好。

  • TPR:真实的正例中,被预测正确的比例
  • FPR:真实的反例中,被预测正确的比例

最理想的分类器,就是对样本分类完全正确,即FP=0,FN=0。所以理想分类器TPR=1,FPR=0。

参考:https://blog.csdn.net/Csuriwolf/article/details/79143548

3、案例

导包

#逻辑斯蒂算法
from sklearn.linear_model import LogisticRegression
#支持向量机SVC算法
from sklearn.svm import SVC
#鸢尾花数据集
from sklearn.datasets import load_iris
#显示
from IPython.display import display
#auc曲线面积评价算法指标
from sklearn.metrics import auc,roc_curve
#线性插值
from scipy import interp
# 对数据进行划分,类似train_test_split
# 按照比例(目标值的比例)进行划分
from sklearn.model_selection import StratifiedKFold,KFold

import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline

获取数据

#获取数据  鸢尾花
iris = load_iris()
X = iris.data
y = iris.target
np.unique(y).size

这里写图片描述
鸢尾花有3个类别.

把鸢尾花变成二分类问题,需要去掉一个类别.

#鸢尾花有3个类别
#把鸢尾花变成二分类问题,需要去掉一个类别
X = X[y!=2]
y = y[y!=2]
X.shape

这里写图片描述

#鸢尾花的特征属性只有4个
#给鸢尾花增加特征属性,增加800个符合正态分布的数值
X = np.concatenate([X,np.random.randn(100,800)],axis=1)
X.shape

线性插值示例

scipy包中的interp

在给定的10个点中插入40个点

#10个点
a = np.linspace(0,2*np.pi,10)
b = np.sin(a)
plt.scatter(a,b)

#线性插值  40个点
c = np.linspace(0,2*np.pi,40)

d = interp(c,a,b)
plt.plot(c,d,color = 'green',marker='d')

这里写图片描述

StratifiedKFold和KFold数据切分示例

#使用KFold拆分数据 
#X1 8个样本数据
X1 = np.array([
    [1,2,3,4],
    [11,12,13,14],
    [21,22,23,24],
    [31,32,33,34],
    [41,42,43,44],
    [51,52,53,54],
    [61,62,63,64],
    [71,72,73,74]
])
#8个目标数据
y1=np.array([1,1,0,0,1,1,0,0])
#一个样本数据对应一个目标值
#对数据分成4类
kFold = KFold(4)

for train,test in kFold.split(X1,y1):
    # train,test代表索引
    print(train,test)
#训练数据6个,测试数据2个

这里写图片描述

StratifiedKFold:分层采样交叉切分,确保训练集,测试集中各类别样本的比例与原始数据集中相同.

sKFold = StratifiedKFold(4)
for train,test in sKFold.split(X1,y1):
    # train,test代表索引
    print(train,test)
#训练数据6个,测试数据2个

这里写图片描述

使用SVC算法

#分层采样交叉切分,
#确保训练集,测试集中各类别样本的比例与原始数据集中相同
# 使用6折交叉验证,并且画ROC曲线 
sKFold = StratifiedKFold(6)
#probability=True 显示概率
svc = SVC(kernel='linear',probability=True)

#求解 auc平均值
aucs = []
#横坐标0到1,分成100分
fpr_mean = np.linspace(0,1,100)
tprs = []

# train,test,是划分后的索引
#第几类标记
i = 1
for train,test in sKFold.split(X,y):
    #根据索引从X和y中取出训练数据,训练模型
    svc.fit(X[train],y[train])
    #获取预测的概率分布
    y_ = svc.predict_proba(X[test])
#     print(y_)
    # ROC曲线
    #y_[:,1] 比较正样本    thresholds:阈值
    fpr,tpr,thresholds  = roc_curve(y[test],y_[:,1])
    #不同的阈值,fpr和tpr的值就会不同
#     print(thresholds)
#     print(fpr)
#     print(tpr)
#     print('---------------------------------------')
    #计算ROC曲线围成的面积
    auc_ = auc(fpr,tpr)
    aucs.append(auc_)

    #线性插值  fpr和tpr只有几个值
    #根据fpr_mean的值,插出tpr的值
    tpr_mean = interp(fpr_mean,fpr,tpr)
    tprs.append(tpr_mean)

    #绘图
    plt.plot(fpr,tpr,
            label = 'Fold %d  auc:%0.4f'%(i,auc_),alpha=0.3)
    i += 1
#tprs有6个值,取其平均值    
tpr_mean = np.mean(tprs,axis=0)
#tpr的值范围为0到1
tpr_mean[0] = 0
tpr_mean[1] =1
#计算平均面积
auc_mean = auc(fpr_mean,tpr_mean)

#求aucs方差
auc_std = np.std(aucs)

plt.plot(fpr_mean,tpr_mean,
         label='Mean_auc:%0.4f$\pm$%0.2f'%(auc_mean,auc_std), 
         # $\pm$ 显示加减号
         color='green')
#显示图例
plt.legend()

这里写图片描述

结论:使用SVC模型对鸢尾花进行二分类的AUC面积为0.88,方差为0.08.

猜你喜欢

转载自blog.csdn.net/lm_is_dc/article/details/81489274