机器学习基础 | 回归模型评估指标

回归模型中常用的评估指标可以分如下几类:

  • MAE系列,即由Mean Absolute Error衍生得到的指标;
  • MSE系列,即由Mean Squared Error衍生得到的指标;
  • R²系列;
    注:在英语中,error和deviation的含义是一样的,所以Mean Absolute Error也可以叫做Mean Absolute Deviation(MAD),其他指标同理可得;

MAE系列

MAE全称Mean Absolute Error(平均绝对误差)。
更多参考
设N为样本数量,第\(i\)个样本的实际值为\(y_i\),预测值为\(y'_i\),那么MAE的定义如下
\[ MAE = \frac{1}{N}\sum^N_{i=1}|y_i-y'_i| \]

由MAE衍生可以得到:

  • Mean Absolute Pencentage Error(MAPE,平均绝对百分比误差),相当于加权版的MAE.
    \[ MAPE = \frac{1}{N}\sum^N_{i=1}\biggl|\frac{y_i-y'_i}{y_i}\biggr| \]

MAPE可以看做是MAE和MPE(Mean Percentage Error)综合而成的指标
\[ MPE = \frac{1}{N}\sum^N_{i=1}\frac{y_i-y'_i}{y_i} \]
从MAPE公式中可以看出有个明显的bug——当实际值\(y_i=0\)时就会得到无穷大值(实际值\(|y_i|<1\)时也会过度放大误差)。为了避免这个bug,MAPE一般用于实际值不会为0的情形。

Sungil Kima & Heeyoung Kim(2016)提出MAAPE(mean arctangent absolute percentage error) 方法,在保持MAPE的算法思想下克服了上面那个bug(更多参考 A new metric of absolute percentage error for intermittent demand forecasts,Sungil Kima & Heeyoung Kim, 2016).
\[ MAAPE = \frac{1}{N}\sum^N_{i=1}arctan\biggl(\biggl|\frac{y_i-y'_i}{y_i}\biggr|\biggr) \]

考虑Absolute Error \(|y_i-y'_i|\)可能存在Outlier的情况,此时Median Abosulte Error(MedAE, 中位数绝对误差)可能是更好的选择。
\[ MedAE=\underset{i=1,...,N}{median}|y_i-y'_i| \]

MSE系列

MSE全称Mean Squared Error(均方误差),也可以称为Mean Squared Deviation (MSD).
更多参考
\[ MSE = \frac{1}{N}\sum^N_{i=1}|y_i-y'_i|^2 \]

由MSE可以衍生得到均方根误差(Root Mean Square Error, RMSE, 或者RMSD)
更多参考
\[ RMSE=\sqrt{MSE} = \sqrt{\frac{1}{N}\sum^N_{i=1}|y_i-y'_i|^2} \]

RMSE可以进行归一化(除以全距或者均值)从而得到归一化的均方根误差(Normalized Root Mean Square Error, NRMSE).
\(NRMSE = \frac{RMSE}{y_{max}-y_{min}}\)
或者
\(NRMSE = \frac{RMSE}{\overline{y}}\)

RMSE还有其他变式:

  • RMSLE(Root Mean Square Logarithmic Error)
    \[ RMSLE = \sqrt{\frac{1}{N}\sum^N_{i=1}\bigl|log(y_i+1)-log(y'_i+1)\bigr|^2} \]
  • RMSPE(Root Mean Square Percentage Error)
    \[ RMSPE=\sqrt{\frac{1}{N}\sum^N_{i=1}\biggl|\frac{y_i-y'_i}{y_i}\biggr|^2} \]
    对于数值序列出现长尾分布的情况,可以选择MSLE(Mean squared logarithmic error,均方对数误差),对原有数据取对数后再进行比较(公式中+1是为了避免数值为0时出现无穷值).
    \[ MSLE = \frac{1}{N}\sum^N_{i=1}\bigl|log(y_i+1)-log(y'_i+1)\bigr|^2 \]

R²系列

R²(R squared, Coefficient of determination),中文翻译为“决定系数”或者“拟合优度”,反映的是预测值对实际值的解释程度.
注意:R²和相关系数的平方不是一回事(只在简单线性回归条件下成立)
\[ \begin{aligned} R^2 & = 1-\frac{SS_{res}}{SS_{tot}} \\ & = 1-\frac{\sum^N_{i=1}(y_i-y'_i)^2}{\sum^N_{i=1}(y_i-\overline{y})^2} \\ \end{aligned} \]
其中\(\overline{y}=\frac{1}{N}\sum^N_{i=1}y_i\),总平方和\(SS_{tot}\)= 回归平方和\(SS_{reg}\)+残差平方和\(SS_{res}\).
\(SS_{tot} = \sum^N_{i=1}(y_i-y'_i)^2\)
\(SS_{res} = \sum^N_{i=1}(y_i-\overline{y})^2\)
\(SS_{reg} = \sum^N_{i=1}(y'_i-\overline{y})^2\)

回归模型中,增加额外的变量会提升R²,但这种提升可能是虚假的,因此提出矫正的R²(Adjusted R²,符号表示为\(R^2_{adj}\)或者\(\overline{R}^2\))来对模型中的变量个数进行“惩罚”(\(R^2_{adj} \leq R^2\))。
\[ R^2_{adj} = 1-(1-R^2)\frac{N-1}{N-1-P} \]

公式中\(P\)表示回归模型中变量(特征)的个数。和\(R^2\)计算方式很相近的另一个指标是Explained Variance Score.

\(e_i = y_i-y'_i, \overline{e}=\frac{1}{N}\sum^N_{i=1}e_i\),则有
\[ \begin{aligned} explained_variance & = 1-\frac{var(y-y')}{var(y)} \\ & = 1-\frac{\sum^N_{i=1}(e_i-\overline{e})^2}{\sum^N_{i=1}(y_i-\overline{y})^2} \\ \end{aligned} \]

更多关于R²参考 :

综上,在选用评价指标时,需要考虑:

  • 数据中是否有0,如果有0值就不能用MPE、MAPE之类的指标;
  • 数据的分布如何,如果是长尾分布可以选择带对数变换的指标,中位数指标比平均数指标更好;
  • 是否存在极端值,诸如MAE、MSE、RMSE之类容易受到极端值影响的指标就不要选用;
  • 得到的指标是否依赖于量纲(即绝对度量,而不是相对度量),如果指标依赖量纲那么不同模型之间可能因为量纲不同而无法比较;

更多关于指标选择可以参考A Survey of Forecast Error Measures(2013) 这篇文章。

参考资料:

猜你喜欢

转载自www.cnblogs.com/dataxon/p/12540191.html