深入理解机器学习——类别不平衡学习(Imbalanced Learning): 类别不平衡分布对传统分类器性能的影响机理

文章《类别不平衡学习(Imbalanced Learning):常用技术概览》已经以样本分布图的形式为读者直观地呈现了类别不平衡分布的负面影响。然而,读者可能仍不清楚其对各传统分类器性能的影响机理。在本文中,将分别以朴素贝叶斯、支持向量机及极限学习机这三种常用的分类器为例,从其各自的独特构造出发,在理论上分析类别不平衡分布对它们性能的影响机理,从而使读者能对类别不平衡分布的危害有更加深刻的认识。

朴素贝叶斯

众所周知,朴素贝叶斯分类器是提出较早且应用较为广泛的一种分类模型。该模型具有较强的理论基础,主要理论依据为贝叶斯定理及特征条件独立假设理论。假设用于分类建模的训练集共包括 n n n个样本 x 1 , x 2 , ⋯   , x n x_1, x_2, \cdots, x_n x1,x2,,xn,且这些样本可被划分为互不相交的 M M M个类别 c 1 , c 2 , ⋯   , c M c_1, c_2, \cdots, c_M c1,c2,,cM,则对于一个新样本 x x x,根据贝叶斯决策理论,其隶属于类别 c i c_i ci的概率可由下式求得:
P ( c i ∣ x ) = P ( x ∣ c i ) P ( c i ) P ( x ) P(c_i|x)=\frac{P(x|c_i)P(c_i)}{P(x)} P(cix)=P(x)P(xci)P(ci)

其中, P ( c i ∣ x ) P(c_i|x) P(cix)为后验概率,表示样本 x x x被划分为类别 c i c_i ci的可能性; P ( c i ) P(c_i) P(ci)为先验概率,它表示在全部训练样本中,类标为 c i c_i ci的样本所占的比例; P ( x ∣ c i ) P(x|c_i) P(xci)则被称为类条件概率,即统计归属于类别 c i c_i ci的样本中,与 x x x具有相同属性取值的样本比例; P ( x ) P(x) P(x)是用于归一化的证据因子,即统计整个训练集中所出现的与 x x x具有相同属性取值的样本比例。显然,只要给定一个训练集,先验概率、类条件概率及证据因子均可直接统计得到,代入上式即可计算得出最终的后验概率。计算样本 x x x隶属于每一类的后验概率,再通过下式即可判定其归属类别:
h ( x ) = arg ⁡ max ⁡ i = 1 , 2 , ⋯   , M P ( c i ∣ x ) h(x)=\arg\max_{i=1, 2, \cdots, M}P(c_i|x) h(x)=argi=1,2,,MmaxP(cix)

也就是将样本 x x x判归为能使其后验概率最大的类别。

在贝叶斯判别规则中,还有一个需要关注的问题,即类条件概率 P ( x ∣ c i ) P(x|c_i) P(xci)的计算问题。考虑到对于绝大多数的分类问题而言,其样本通常都包含不止一个属性,在此情况下,则显然类条件概率 P ( x ∣ c i ) P(x|c_i) P(xci)应被分解为多个属性的联合概率,若训练样本有限,那么就会导致 P ( x ∣ c i ) P(x|c_i) P(xci)在其分布区间中的大部分位置取值为零,这显然是不合理的,因为“未被观测到”和“出现概率为零”是截然不同的两个概念。另外,样本中各属性的取值也未必都是离散的,对于取值为连续区间的属性而言,频率更是难以通过“查数”来统计得出。对于上述问题,贝叶斯决策理论通常是采用极大似然估计法来解决的。采用该方法,可近似估计得出属性空间中的概率密度分布,再用对应点的概率密度来近似替代类条件概率 P ( x ∣ c i ) P(x|c_i) P(xci)的估计值。

不失一般性,假设待分类问题为二类不平衡问题,其中少数类为正类,类标表示为 c + c_+ c+,多数类为负类,其类标用 c − c_- c来表示,每个样本只含有一个属性 x x x,且两类样本在该属性上均服从正态高斯分布)。由于先验概率 P ( c + ) , P ( c − ) P(c_+), P(c_-) P(c+)P(c)及类条件概率 P ( x ∣ c + ) , P ( x ∣ c − ) P(x|c_+), P(x|c_-) P(xc+)P(xc)均已知,则可调用贝叶斯公式,计算得出其后验概率,分别为:
P ( x ∣ c + ) = P ( x ∣ c + ) P ( c + ) P ( x ) P ( x ∣ c − ) = P ( x ∣ c − ) P ( c − ) P ( x ) \begin{aligned} P(x|c_+)=&\frac{P(x|c_+)P(c_+)}{P(x)}\\ P(x|c_-)=&\frac{P(x|c_-)P(c_-)}{P(x)}\\ \end{aligned} P(xc+)=P(xc)=P(x)P(xc+)P(c+)P(x)P(xc)P(c)

显然,当分类边界出现在两类后验概率相等位置时,即 P ( c + ∣ x ) = P ( c − ∣ x ) P(c_+|x)=P(c_-|x) P(c+x)=P(cx),也就是 P ( x ∣ c + ) P ( c + ) = P ( x ∣ c − ) P ( c − ) P(x|c_+)P(c_+)=P(x|c_-)P(c_-) P(xc+)P(c+)=P(xc)P(c)时,分类器的经验风险将会达到最小化。
在这里插入图片描述
从上图可看出,若训练集中的样本是类别平衡的,即两类具有相等的先验概率 P ( c + ) = P ( x ∣ c − ) P ( c − ) P(c_+)=P(x|c_-)P(c_-) P(c+)=P(xc)P(c),则分类边界应出现在两类类条件概率相等的位置,即上图中最优边界的位置。而若训练集是类别分布不平衡的,即 P ( c + ) < P ( x ∣ c − ) P ( c − ) P(c_+)<P(x|c_-)P(c_-) P(c+)<P(xc)P(c),则为了保证后验概率相等,即 P ( x ∣ c + ) P ( c + ) = P ( x ∣ c − ) P ( c − ) P(x|c_+)P(c_+)=P(x|c_-)P(c_-) P(xc+)P(c+)=P(xc)P(c),分类边界将必然会出现在一个少数类的类条件概率高于多数类的类条件概率的位置,如上图中实际边界的位置。显然,实际的分类边界偏离了最优边界的位置,它被更多地推向了少数类所在的区域。基于上述理论解释,贝叶斯决策的结果会受到样本类别不平衡分布的影响,且这种影响是负面的。从上图中也可以看出,两类样本的重叠程度越高,类别不平衡比率越大,则分类边界的偏离度也将越大。

支持向量机

支持向量机(Support Vector Machine, SVM)为Vapnik于1995年提出,在2000年前后迅速发展成为机器学习领域的热点技术之一。不同于传统的分类算法,支持向量机不再以经验风险最小化为训练目标,转而追求结构风险最小化。所谓结构风险最小化,可以通过下图的例子加以解释。
结构风险最小化及经验风险最小化对比示意图
从上图中可以看出,这是一个典型的二分类问题,利用这两类样本进行分类器建模,可以得到无数分类面,并可保证这些分类面的训练精度均为百分之百。上图中为大家展示了上述分类面中的三个,可分别标记为 H 1 , H 2 , h 3 H_1, H_2, h_3 H1,H2,h3。从直观上看,显然 H 2 H_2 H2的视觉效果要更好一些,因为它与两类边界样本的距离是相同的,且在它的垂直方向上,两类样本间存在最大的间隔,这就能保证其对训练样本的局部扰动具有最强的容忍度,也可以说它有最强的泛化能力。故若采用0-1损失函数作为分类器建模的度量标准,上述三个分类面均可保证经验风险最小化,而若考虑结构风险最小化,分类面 H 2 H_2 H2无疑是唯一选择。

支持向量机建模的目标就是要在样本空间中找到那个能使结构风险达到最小化的分类面。这个分类面可通过如下的线性方程来描述:
w T x + b = 0 w^Tx+b=0 wTx+b=0

其中, w w w为法向量,它决定了分类超平面的方向; b b b表示位移项,其决定了分类超平面与原点间的距离。显然,任一分类超平面的位置均可由其法向量 w w w及位移项 b b b唯一确定。样本空间中任意样本 x x x到超平面的距离可由下式计算:
r = w T x + b ∣ ∣ w ∣ ∣ r=\frac{w^Tx+b}{||w||} r=wwTx+b

若超平面可将全部训练样本均正确分类,即对于训练集中任一样本 ( x i , y i ) (x_i, y_i) (xi,yi),若 y i = + 1 y_i=+1 yi=+1,则有 w T x + b > 0 w^Tx+b>0 wTx+b>0;若 y i = − 1 y_i=-1 yi=1,则有 w T x + b < 0 w^Tx+b<0 wTx+b<0。此时,可令:
{ w T x + b ≥ + 1 , y i = + 1 w T x + b ≤ − 1 , y i = − 1 \left\{ \begin{aligned} w^Tx+b\geq+1, & \quad y_i = +1 \\ w^Tx+b\leq-1, & \quad y_i = -1 \end{aligned} \right. { wTx+b+1,wTx+b1,yi=+1yi=1

如下图所示,距离超平面最近的几个圈起来的训练样本点可使上式的等号成立,我们通常将它们称为“支持向量”。显然,两个异类支持向量到超平面的距离之和为:
r = 2 ∣ ∣ w ∣ ∣ r=\frac{2}{||w||} r=w2

该距离被称为“间隔(Margin)”。
在这里插入图片描述
支持向量机的目的就是要找到那个具有最大间隔的分类面,也就是要找到对应的约束参数 w w w b b b,使得 2 ∣ ∣ w ∣ ∣ \frac{2}{||w||} w2最大。要使 2 ∣ ∣ w ∣ ∣ \frac{2}{||w||} w2最大,实际上就是要使 ∣ ∣ w ∣ ∣ ||w|| w最小,于是待解的优化式可以写为如下形式:
min ⁡ w , b 1 2 ∣ ∣ w ∣ ∣ 2 s.t. y i ( w T x i + b ) ≥ 1 , i = 1 , 2 , ⋯   , N \begin{aligned} \min_{w, b}&\quad \frac{1}{2}||w||^2\\ \text{s.t.}&\quad y_i(w^Tx_i+b)\geq1, \qquad i=1, 2, \cdots, N \end{aligned} w,bmins.t.21w2yi(wTxi+b)1,i=1,2,,N
上述优化式是一个典型的二次规划问题,可以通过拉格朗日乘子法求解。前文仅仅考虑了训练样本线性可分的情况,然而在实际应用中,这种情况并不常出现。若训练样本在样本空间中线性不可分,则可考虑采用核方法将样本映射到线性可分的高维空间,再对分类面进行求解。核函数可表示为如下形式:
K ( x i , x j ) ≤ ϕ ( x i ) ϕ ( x j ) ≥ ϕ ( x i ) T ϕ ( x j ) \begin{aligned}K(x_i, x_j)&\leq \phi(x_i)\\ \phi(x_j)&\geq\phi(x_i)^T\phi(x_j) \end{aligned} K(xi,xj)ϕ(xj)ϕ(xi)ϕ(xi)Tϕ(xj)

同时,为了避免分类间隔过小,从而降低分类器的泛化性能,可考虑令部分训练样本不满足约束式,这可通过在优化式中加入惩罚因子 C C C来实现,则上式可被改写为:
min ⁡ w , b 1 2 ∣ ∣ w ∣ ∣ 2 + C ∑ i = 1 N ξ i s.t. y i ( w T ϕ ( x I ) + b ) ≥ 1 − ξ , i = 1 , 2 , ⋯   , N ; ξ ≥ 0 \begin{aligned} \min_{w, b}&\quad \frac{1}{2}||w||^2+C\sum_{i=1}^N\xi_i\\ \text{s.t.}&\quad y_i(w^T\phi(x_I)+b)\geq1-\xi, \qquad i=1, 2, \cdots, N;\xi\geq0 \end{aligned} w,bmins.t.21w2+Ci=1Nξiyi(wTϕ(xI)+b)1ξ,i=1,2,,N;ξ0

其中, ξ \xi ξ称为“松弛因子”,用来表示其不满足约束式 y i ( w T ϕ ( x I ) + b ) ≥ 1 y_i(w^T\phi(x_I)+b)\geq1 yi(wTϕ(xI)+b)1的程度。通过拉格朗日乘子法,上式的对偶形式可被写为如下形式,并进行求解:
min ⁡ α ∑ i = 1 m α i + 1 2 ∑ i = 1 N ∑ j = 1 N y i y k α i α J K ( x i , x j ) s.t. ∑ i = 1 N y i α i = 0 , ∀ i : 0 ≤ α i ≤ C \begin{aligned} \min_{\alpha}&\quad \sum_{i=1}^m\alpha_i+\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^Ny_iy_k\alpha_i\alpha_JK(x_i, x_j)\\ \text{s.t.}&\quad \sum_{i=1}^Ny_i\alpha_i=0, \qquad\forall i:0\leq\alpha_i\leq C \end{aligned} αmins.t.i=1mαi+21i=1Nj=1NyiykαiαJK(xi,xj)i=1Nyiαi=0,i:0αiC

观察上式可以发现,任一样本的拉格朗日乘子项系数 α i \alpha_i αi均对应如下三类情况之一:

  • α i = 0 \alpha_i=0 αi=0:这意味着对应样本能被正确分类,且位于间隔线外
  • 0 < α i < C 0<\alpha_i<C 0<αi<C:这意味着对应样本位于间隔线上,也就是支持向量。
  • α i = C \alpha_i=C αi=C:这意味着对应样本位于两条间隔线之间,能否被正确分类是未知的。

下面考虑类别不平衡问题,假设 N N N个训练样本可被划分为两类,其中少数类样本数为 N + N^+ N+,多数类样本数为 N − N^- N,显然有 N + < N − N^+<N^- N+<N,且有 N + + N − = N N^++N^-=N N++N=N。此外,分别采用 N SV + N^+_{\text{SV}} NSV+ N SV − N^-_{\text{SV}} NSV表示两类样本中的支持向量个数, N boundary + N^+_{\text{boundary}} Nboundary+ N boundary − N^-_{\text{boundary}} Nboundary来表示两类样本中被置于间隔区域中的样本数。则根据上式,显然有:
∑ i = 1 N α i   =   ∑ y i = + 1 N α i + ∑ y i = − 1 N α i ∑ y i = + 1 N α i   =   ∑ y i = − 1 N α i \begin{aligned}\sum_{i=1}^N\alpha_i&\ =\ \sum_{y_i=+1}^N\alpha_i+\sum_{y_i=-1}^N\alpha_i\\ \sum_{y_i=+1}^N\alpha_i&\ =\ \sum_{y_i=-1}^N\alpha_i \end{aligned} i=1Nαiyi=+1Nαi = yi=+1Nαi+yi=1Nαi = yi=1Nαi

由于 α i \alpha_i αi的取值至多为 C C C,故可推得如下两个不等式:
∑ y i = + 1 α i ≥ N boundary + × C ∑ y i = + 1 α i ≤ N SV + × C \begin{aligned} \sum_{y_i=+1}\alpha_i&\geq N^+_{\text{boundary}}\times C\\ \sum_{y_i=+1}\alpha_i&\leq N^+_{\text{SV}}\times C \end{aligned} yi=+1αiyi=+1αiNboundary+×CNSV+×C

即:
N SV + × C ≥ ∑ y i = + 1 α i ≥ N boundary + × C N^+_{\text{SV}}\times C\geq\sum_{y_i=+1}\alpha_i\geq N^+_{\text{boundary}}\times C NSV+×Cyi=+1αiNboundary+×C

同理可得:
N SV − × C ≥ ∑ y i = − 1 α i ≥ N boundary − × C N^-_{\text{SV}}\times C\geq\sum_{y_i=-1}\alpha_i\geq N^-_{\text{boundary}}\times C NSV×Cyi=1αiNboundary×C

在此,不妨令 ∑ y i = + 1 N α i = ∑ y i = − 1 N α i = M \sum_{y_i=+1}^N\alpha_i=\sum_{y_i=-1}^N\alpha_i=M yi=+1Nαi=yi=1Nαi=M,则:
N SV + N + ≥ M N + × C ≥ N boundary + N + N SV − N − ≥ M N − × C ≥ N boundary − N − \begin{aligned} \frac{N^+_{\text{SV}}}{N^+}\geq\frac{M}{N^+\times C}\geq \frac{N^+_{\text{boundary}}}{N^+}\\ \frac{N^-_{\text{SV}}}{N^-}\geq\frac{M}{N^-\times C}\geq \frac{N^-_{\text{boundary}}}{N^-} \end{aligned} N+NSV+N+×CMN+Nboundary+NNSVN×CMNNboundary

其中, N boundary + N + \frac{N^+_{\text{boundary}}}{N^+} N+Nboundary+ N boundary − N − \frac{N^-_{\text{boundary}}}{N^-} NNboundary分别表示两类样本中位于间隔区域的样本比例,由于间隔区域中样本的预测类标不可控,故上述两个指标也可分别看做是对两类训练样本错误率的一种近似。又由于有 N + < N − N^+<N^- N+<N,故显然有 M N + × C \frac{M}{N^+\times C} N+×CM M N − × C \frac{M}{N^-\times C} N×CM,即表明正类(少数类)错误率的上限要高于负类(多数类)错误率的上限。由此,不难得出如下结论:支持向量机的训练结果会受到样本类别分布不平衡的影响,且这种影响是负面的。此外,也可看出,两类样本的训练样本数差别越大,则其对应的错误率上限的差别也将越大,负面影响的效果也越大。实际上,由于SVM的分类面仅与少量的支持向量有关,故其与其他分类器相比,受类别不平衡分布的影响要相对小得多。

极限学习机

极限学习机(Rxtreme Learning Machine, ELM)由南洋理工大学的Huang等人于2006年正式提出,经过近十年的发展,已经成为机器学习领域的研究热点之一。不同于传统的误差反传(Back-Propagation, BP)算法,极限学习机通过随机指定隐层参数,并利用最小二乘法求解输出层权重的方式来训练单隐层前馈神经网络(Single-hidden Layer Feedback Network, SLFN),故其具有泛化能力强、训练速度快等优点。SLFN的基本结构如下图所示:
极限学习机
设训练集包括 N N N个训练样本,将其表示为 ( x i , t i ) ∈ R n × R m (x_i, t_i)\in R^n\times R^m (xi,ti)Rn×Rm,其中, x i x_i xi表示 n × 1 n\times1 n×1维的输入向量, t i t_i ti表示第 i i i个训练样本的期望输出向量,对于分类问题而言, n n n即代表训练样本的属性数, m m m则代表样本的类别数。如上图所示,若一个具有 L L L个隐层节点的单隐层前馈神经网络能以零误差拟合上述 N N N个训练样本,则意味着存在 β i , a i , b i \beta_i, a_i, b_i βi,ai,bi,使得下式成立:
f L ( x ) = ∑ i = 1 L β i G ( a i , b i , x j ) = t j , k = 1 , 2 , ⋯   , N f_L(x)=\sum_{i=1}^L\beta_iG(a_i, b_i, x_j)=t_j, \quad k=1,2,\cdots, N fL(x)=i=1LβiG(ai,bi,xj)=tj,k=1,2,,N

其中, a i a_i ai b i b_i bi分别表示第 i i i个隐层节点的权重与偏置; β i \beta_i βi表示第 i i i个隐层节点的输出权重,即第 i i i个隐层节点到各输出节点的连接权重; G G G表示激活函数,则上式可进一步简化为:
H β = T H\beta=T Hβ=T

其中:
H = [ G ( a 1 , b 1 , x 1 ) ⋯ G ( a L , b L , x 1 ) ⋮ ⋱ ⋮ G ( a 1 , b 1 , x N ) ⋯   G ( a N , b N , x N ) ] H= \begin{bmatrix} G(a_1, b_1, x_1) & \cdots & G(a_L, b_L, x_1) \\ \vdots & \ddots & \vdots \\ G(a_1, b_1, x_N) & \cdots\ & G(a_N, b_N, x_N) \\ \end{bmatrix} H=G(a1,b1,x1)G(a1,b1,xN) G(aL,bL,x1)G(aN,bN,xN)

β = [ β 1 T ⋮ β L T ] \beta= \begin{bmatrix} \beta_1^T \\ \vdots\\ \beta_L^T \\ \end{bmatrix} β=β1TβLT

T = [ t 1 T ⋮ t N T ] T= \begin{bmatrix} t_1^T \\ \vdots\\ t_N^T \\ \end{bmatrix} T=t1TtNT

其中, G ( a i , b i , x j ) G(a_i, b_i, x_j) G(ai,bi,xj)表示第 j j j个训练样本在第 i i i个隐层节点上的激活函数值; T T T为所有训练样本对应的期望输出矩阵,通常将每个样本所对应类别输出节点的期望输出值设为 1 1 1,其他节点的输出值则设为 − 1 -1 1; H H H被称为隐层输出矩阵,其第 i i i列为第 i i i个隐层节点在所有训练样本上的输出向量,第 j j j行为第 j j j个训练样本在整个隐藏层中对应的输出向量。

在极限学习机中,由于所有 a i a_i aiKaTeX parse error: Expected group after '_' at position 3: bi_̲均是在 [ − 1 , 1 ] [-1,1] [1,1]区间内随机生成的,故输入样本、隐层权重与偏置、期望输出(类别标记)均已知,则输出权重矩阵 β \beta β的近似解 β ^ \hat{\beta} β^即可由下式直接计算得到:
β ^ = H T T \hat{\beta}=H^TT β^=HTT

其中, H T H^T HT为隐层输出矩阵的Moore-Penrose广义逆。根据其定义,可推知 β ^ \hat{\beta} β^为该网络的最小范数最小二乘解。因此,极限学习机可通过进一步计算得到,而无须迭代训练,这就保证了神经网络的训练时间能被大幅缩减。同时,由于在求解过程中,约束了输出权重矩阵 β \beta β L 2 L_2 L2范数,使其最小化,故可保证网络具有较强的泛化性能。

2012年,极限学习机的优化版本被提出,类似于支持向量机,其优化式可表示如下:
min ⁡ L ELM = 1 2 ∣ ∣ β ∣ ∣ 2 + 1 2 C ∑ i = 1 N ϵ I 2 s.t. h ( x i ) β = t i − ϵ i \begin{aligned} \min&\quad L_{\text{ELM}}=\frac{1}{2}||\beta||^2+\frac{1}{2}C\sum_{i=1}^N\epsilon_I^2\\ \text{s.t.}&\quad h(x_i)\beta=t_i-\epsilon_i \end{aligned} mins.t.LELM=21β2+21Ci=1NϵI2h(xi)β=tiϵi

其中, ϵ i \epsilon_i ϵi表示第 i i i个训练样本的实际输出与期望输出之差; h ( x i ) h(x_i) h(xi)为第 i i i个样例 x i x_i xi在隐层上的输出向量,而 C C C则为惩罚因子,用于调控网络的泛化性与精确性间的平衡关系。上述优化式可通过求解得到,给定一个具体的样本 x i x_i xi,其对应的实际输出向量可由下式求得:
f ( x ) = { h ( x ) H T ( 1 C + H H T ) − 1 T , N < L h ( x ) ( 1 C + H T H ) − 1 H T T , N ≥ L f(x)=\left\{ \begin{aligned} h(x)H^T(\frac{1}{C}+HH^T)^{-1}T, N<L \\ h(x)(\frac{1}{C}+H^TH)^{-1}H^TT,N\geq L \end{aligned} \right. f(x)=h(x)HT(C1+HHT)1T,N<Lh(x)(C1+HTH)1HTT,NL

其中, f ( x ) = [ f 1 ( x ) , f 2 ( x ) , ⋯   , f m ( x ) ] f(x)=[f_1(x), f_2(x), \cdots, f_m(x)] f(x)=[f1(x),f2(x),,fm(x)]则表示样本 x x x的实际输出向量,并可进一步通过下式确定该样本的预测类标:
Label ( x ) = arg ⁡ max ⁡ f i ( x ) , i = 1 , 2 , ⋯   , m \text{Label}(x)=\arg\max f_i(x), \quad i=1, 2, \cdots, m Label(x)=argmaxfi(x),i=1,2,,m

下面考察样本类别不平衡分布对极限学习机会产生何种影响。从上面的理论分析可知,对于极限学习机而言,那些在属性空间中相邻较近的样本通常会有极其相似的输出值,而在类重叠区域,多数类样本会将少数类样本紧密地包裹其中,它们的输出值将极为接近。为同时保证所训练的极限学习机具有较强的泛化能力与较低的训练误差,少数类必然做出更多的牺牲。不失一般性,假设分类任务只有两个类别,其中在极限学习机中,少数类对应的期望输出为 1 1 1,而多数类的期望输出为 − 1 -1 1。考虑属性空间中两类样本的重叠区域,若可从该区域分割出一个足够小且样本分布致密的子区域,并保证在这一区域中多数类样例有 S S S个,而少数类样例数恰好只有 1 1 1个,即在此区域中,不平衡比率为 S S S,则根据极限学习机的构造机理,这 S + 1 S+1 S+1个样例将有极其近似的输出值。设该少数类样本的特征向量为 x 0 = ( x 01 , x 02 , ⋯   , x 0 n ) x_0=(x_{01}, x_{02}, \cdots, x_{0n}) x0=(x01,x02,,x0n),则 S S S个多数类样例的特征向量可表示为: x i = ( x 01 + Δ i 1 , x 02 + Δ i 2 , ⋯   , x 0 n + Δ i n ) , i = 1 , 2 , ⋯   , S x_i=(x_{01}+\Delta_{i1}, x_{02}+\Delta_{i2}, \cdots, x_{0n}+\Delta_{in}), i=1, 2, \cdots, S xi=(x01+Δi1,x02+Δi2,,x0n+Δin),i=1,2,,S,其中, Δ i j \Delta_{ij} Δij表示第 i i i个多数类样例与少数类样例 x 0 x_0 x0相比,在第 j j j个特征上的变化量,则在极限学习机训练完成后,这些样本的实际输出可表示为:
f ( x j ) = { ∑ i = 1 L β i G ( a i , b i , x 0 ) , j = 0 ∑ i = 1 L β i G ( a i , b i , x 0 + Δ x j ) , j = 1 , 2 , ⋯   , S f(x_j)=\left\{ \begin{aligned} &\sum_{i=1}^L\beta_iG(a_i, b_i, x_0),\quad j=0\\ &\sum_{i=1}^L\beta_iG(a_i, b_i, x_0+\Delta x_j),\quad j=1, 2, \cdots, S \end{aligned} \right. f(xj)=i=1LβiG(ai,bi,x0),j=0i=1LβiG(ai,bi,x0+Δxj),j=1,2,,S

若以 Δ f ( x j ) \Delta f(x_j) Δf(xj)来表示第 j j j个多数类样本对比少数类样本 x 0 x_0 x0在实际输出上的变化量,则其可表示如下:
Δ f ( x j ) = ∑ i = 1 L β i G ( a i , b i , x 0 + Δ x j ) − ∑ i = 1 L β i G ( a i , b i , x 0 ) = ∑ i = 1 L β i ( G ( a i , b i , x 0 + Δ x j ) − G ( a i , b i , x 0 ) ) \begin{aligned} \Delta f(x_j)&=\sum_{i=1}^L\beta_iG(a_i, b_i, x_0+\Delta x_j)-\sum_{i=1}^L\beta_iG(a_i, b_i, x_0)\\ &=\sum_{i=1}^L\beta_i(G(a_i, b_i, x_0+\Delta x_j)-G(a_i, b_i, x_0)) \end{aligned} Δf(xj)=i=1LβiG(ai,bi,x0+Δxj)i=1LβiG(ai,bi,x0)=i=1Lβi(G(ai,bi,x0+Δxj)G(ai,bi,x0))

若其中的激活函数 G G G采用的是连续函数,且同时相邻样本在属性空间上的变化量 Δ x j \Delta x_j Δxj,隐层权重与偏置的 L 2 L_2 L2范数 ∣ ∣ a ∣ ∣ ||a|| a ∣ ∣ b ∣ ∣ ||b|| b,以及输出权重矩阵 ∣ ∣ β ∣ ∣ ||\beta|| β L 2 L_2 L2范数均足够小时,可保证两个邻近样本实际输出的变化量 Δ f ( x j ) \Delta f(x_j) Δf(xj)足够小。回顾上式,假定输出权重矩阵 β \beta β已预先确定,则该致密区间的样例子集 Q sub Q_\text{sub} Qsub的均方训练误差可表示为:
Q sub = ( f ( x 0 ) − 1 ) 2 + ∑ i = 1 S ( f ( x 0 ) + Δ f ( x i ) − ( 1 − ) ) 2 = f 2 ( x 0 ) − 2 f ( x 0 ) + 1 + ∑ i = 1 S ( f 2 ( x 0 ) + 2 f ( x 0 ) ( Δ f ( x i ) + 1 ) + Δ f 2 ( x i ) + 2 Δ f ( x i ) + 1 ) \begin{aligned} Q_\text{sub}&=(f(x_0)-1)^2+\sum_{i=1}^S(f(x_0)+\Delta f(x_i)-(1-))^2\\ &=f^2(x_0)-2f(x_0)+1+\sum_{i=1}^S(f^2(x_0)+2f(x_0)(\Delta f(x_i)+1)+\Delta f^2(x_i)+2\Delta f(x_i)+1) \end{aligned} Qsub=(f(x0)1)2+i=1S(f(x0)+Δf(xi)(1))2=f2(x0)2f(x0)+1+i=1S(f2(x0)+2f(x0)(Δf(xi)+1)+Δf2(xi)+2Δf(xi)+1)

为最小化该子集的均方训练误差,可通过如下偏导式求解:
∂ Q sub ∂ f ( x 0 ) = ( 2 S + 2 ) f ( x 0 ) + 2 ∑ i = 1 S Δ f ( x i ) + 2 S − 2 = 0 \frac{\partial Q_\text{sub}}{\partial f(x_0)}=(2S+2) f(x_0)+2\sum_{i=1}^S\Delta f(x_i)+2S-2=0 f(x0)Qsub=(2S+2)f(x0)+2i=1SΔf(xi)+2S2=0

对上式进行求解,可得该子区间内的少数类样本的实际输出为:
f ( x 0 ) = 1 − S − ∑ i = 1 S Δ f ( x i ) S + 1 f(x_0)=\frac{1-S-\sum_{i=1}^S\Delta f(x_i)}{S+1} f(x0)=S+11Si=1SΔf(xi)

通过前面的分析可知 ∑ i = 1 S Δ f ( x i ) \sum_{i=1}^S\Delta f(x_i) i=1SΔf(xi)足够小,故可忽略。此外,已知 S ≫ 1 S≫1 S1,则可推得该样本倾向于输出一个负值,且随着 S S S的增大,该值越来越逼近多数类的期望输出值 − 1 -1 1。通过上述推导分析,可得出如下结论:对于类别不平衡数据而言,在不同类的样本重叠区域,由于某类样本远远多于另一类,则样本相对较少的一类将会付出更大的错分代价。由此可知,类不平衡分布会对极限学习机的分类结果产生影响,且这种影响也是负面的。

猜你喜欢

转载自blog.csdn.net/hy592070616/article/details/124526929