ESL2.8 限制性估计的种类学习笔记

2.8 限制性估计的种类

这是一篇有关《统计学习基础》,原书名The Elements of Statistical Learning的学习笔记,该书学习难度较高,有很棒的学者将其翻译成中文并放在自己的个人网站上,翻译质量非常高,本博客中有关翻译的内容都是出自该学者的网页,个人解读部分才是自己经过查阅资料和其他学者的学习笔记,结合个人理解总结成的原创内容。
有关ESL更多的学习笔记的markdown文件,可在作者GitHub上查看下载。

原文 The Elements of Statistical Learning
翻译 szcf-weiya
时间 2018-08-21
解读 Hytn Chen
更新 2020-02-07

翻译原文

非参回归技巧的多样性或学习方法的类型根据其限制条件的本质可以分成不同的种类.这些种类不是完全不同的,而且确实一些方法可以归为好几种不同的类别.这里我们进行一个简短的概要,因为详细的描述将在后面章节中给出.每个类都有与之对应的一个或多个参数,有时恰当地称之为 光滑化(smoothing) 参数,这些参数控制着局部邻域的有效大小.这里我们描述三个大的类别.

粗糙度惩罚和贝叶斯方法

这是由显式的惩罚 R S S ( f ) \rm{RSS}(f) 以及粗糙度惩罚控制的函数类别:
P R S S ( f ; λ ) = R S S ( f ) + λ J ( f ) (2.38) \rm{PRSS}(f;\lambda)=\rm{RSS}(f)+\lambda J(f)\tag{2.38}
对于在输入空间的小邻域变换太快的函数 f f ,用户选择的函数 J ( f ) J(f) 会变大.举个例子,著名的用于一维输入的 三次光滑样条 (cubic smoothing spline) 的是带惩罚的最小二乘的准则的解.
P R S S ( f ; λ ) = i = 1 N ( y i f ( x i ) ) 2 + λ [ f ( x ) ] 2 d x (2.39) \rm{PRSS}(f;\lambda)=\sum\limits_{i=1}^N(y_i-f(x_i))^2+\lambda \int [f''(x)]^2dx \tag{2.39}
这里的粗糙惩罚控制了 f f 的二阶微分较大的值,而且惩罚的程度由 λ 0 \lambda \ge 0 来决定. λ = 0 \lambda=0 表示没有惩罚,则可以使用任意插值函数,而 λ = \lambda=\infty 仅仅允许关于 x x 的线性函数.

可以在任意维数下构造惩罚函数 J J ,而且一些特殊的版本可以用来插入特殊的结构.举个例子,可加性惩罚 J ( f ) = j = 1 p J ( f j ) J(f)=\sum_{j=1}^pJ(f_j) 与可加性函数 f ( X ) = j = 1 p f j ( X j ) f(X)=\sum_{j=1}^pf_j(X_j) 联合使用去构造可加的光滑坐标函数的模型.类似地,投射寻踪回归 (regression pursuit regression) 模型有 f ( X ) = m = 1 M g m ( α m T X ) f(X)=\sum_{m=1}^Mg_m(\alpha_m^TX) ,其中 α m \alpha_m 为自适应选择的方向,每个函数 g m g_m 有对应的粗糙惩罚.

惩罚函数,或者说 正则 (regularization) 方法,表达了我们的 先验信仰 (prior belief)——寻找具有一个特定类型的光滑行为函数类型,而且确实可以套进贝叶斯的模型中.惩罚 J J 对应先验概率, P R S S ( f ; λ ) \rm{PRSS}(f;\lambda) 为后验分布,最小化 P R S S ( f ; λ ) \rm{PRSS}(f;\lambda) 意味着寻找后验模式.我们将在第 5 章中讨论粗糙惩罚方法并在第 8 章中讨论贝叶斯范式.

核方法和局部回归

这些方法可以认为是通过确定局部邻域的本质来显式给出回归函数的估计或条件期望,并且属于局部拟合得很好的规则函数类.局部邻域由 核函数(kernel function) K λ ( x 0 , x ) K_{\lambda}(x_0,x) 确定,它对 x 0 x_0 附近的区域内的 x x 赋予系数(见图 6.1),举个例子,高斯核有一个基于高斯密度函数的权重函数
K λ ( x 0 , x ) = 1 λ exp [ x x 0 2 2 λ ] (2.40) K_{\lambda}(x_0,x)=\frac{1}{\lambda}\exp\Big[-\frac{\mid \mid x-x_0\mid \mid ^2}{2\lambda}\Big] \tag{2.40}
并且对某点赋予与 x 0 x_0 的欧氏距离的平方呈指数衰减的权重.系数 λ \lambda 对应高斯密度的方差,并且控制着邻域的宽度.核估计的最简单形式是 Nadaraya-Watson 的系数平均
f ^ ( x 0 ) = i = 1 N K λ ( x 0 , x i ) y i i = 1 N K λ ( x 0 , x i ) (2.41) \hat{f}(x_0)=\dfrac{\sum_{i=1}^{N}K_{\lambda}(x_0,x_i)y_i}{\sum_{i=1}^NK_{\lambda}(x_0,x_i)} \tag{2.41}
一般地,我们可以定义 f ( x 0 ) f(x_0) 的局部回归估计为 f θ ^ ( x 0 ) f_{\hat{\theta}}(x_0) ,其中 θ ^ \hat{\theta} 使下式最小化
R S S ( f θ , x 0 ) = i = 1 N K λ ( x 0 , x i ) ( y i f θ ( x i ) ) 2 (2.42) \rm{RSS}(f_{\theta},x_0)=\sum\limits_{i=1}^NK_{\lambda}(x_0,x_i)(y_i-f_{\theta}(x_i))^2 \tag{2.42}
并且 f θ f_{\theta} 为含参函数,比如低阶的多项式.有如下例子:

  • 常值函数 f θ ( x ) = θ 0 f_{\theta}(x)=\theta_0 ,这导出了上式 ( 2.41 ) (2.41) 中的 Nadaraya-Watson 估计.
  • f θ ( x ) = θ 0 + θ 1 x f_{\theta}(x)=\theta_0+\theta_1x 给出最受欢迎的局部线性回归模型

最近邻方法可以看成是某个更加依赖数据的度量的核方法.确实, k k -最近邻的度量为
K k ( x , x 0 ) = I ( x x 0 x ( k ) x 0 ) K_k(x,x_0)=I(\mid \mid x-x_0\mid \mid \le \mid \mid x_{(k)}-x_0\mid \mid )
其中 x ( k ) x_{(k)} 是训练观测值中离 x 0 x_0 的距离排名第 k k 个的观测,而且 I ( S ) I(S) 是集合 S S 的指标函数.

为了避免维数灾难,这些方法在高维情形下要做修正.将在第 6 章讨论不同的改编.

基函数和字典方法

这个方法的类别包括熟悉的线性和多项式展开式,但是最重要的有多种多样的更灵活的模型.这些关于 f f 的模型是基本函数的线性展开
f θ ( x ) = m = 1 M θ m h m ( x ) (2.43) f_{\theta}(x) = \sum\limits_{m=1}^M\theta_mh_m(x) \tag{2.43}
其中每个 h m h_m 是输入 x x 的函数,并且其中的线性项与参数 θ \theta 的行为有关.这个类别包括很多不同的方法.某些情形下基函数的顺序是规定的,如关于 x x 的阶为 M M 的多项式基函数.

对于一维 x x ,阶为 K K 的多项式样条可以通过 M M 个样条基函数合适的序列来表示,从而由 M K 1 M-K-1 结点 (knots) 来确定.在结点中间产生阶为 K K 的分段多项式函数,并且在每个结点处由 K 1 K-1 阶连续函数来连接.考虑线性样条的例子,或者分段线性函数.一个直观满足条件的基由函数 b 1 ( x ) = 1 , b 2 ( x ) = x , b m + 2 ( x ) = ( x t m ) _ + , m = 1 , , M 2 b_1(x)=1,b_2(x)=x,b_{m+2}(x)=(x-t_m)\_{+},m=1,\ldots,M-2 构成,其中 t m t_m 为第 m m 个结点,并且 z + z_{+} 表示正值部分.样条基的张量积可以用于维数大于一的输入(见 5.2 节,第 9 章的 CRATMARS 模型).系数 M M 控制着多项式的阶,或者是样条情形中的结点个数.

径向基函数 (Radial basis functions) 是在质心处对称的 p p 维核,
f θ ( x ) = m = 1 M K λ m ( μ m , x ) θ m (2.44) f_{\theta}(x)=\sum\limits_{m=1}^MK_{\lambda_m}(\mu_m,x)\theta_m \tag{2.44}
举个例子,很流行的高斯核 K λ ( μ , x ) = e x μ 2 / 2 λ K_{\lambda}(\mu,x)=e^{-\mid \mid x-\mu\mid \mid ^2/2\lambda}

径向基函数的参数有质心 μ m \mu_m 和尺寸 λ m \lambda_m ,必须要确定这两个值.样条基函数有结点.一般地,我们也想要数据去确定它们.把它们作为系数将回归问题从直接的线性问题转换为困难的组合非线性问题.在实际中,贪心算法或两步过程是经常使用的捷径.6.7 节中描述了这些方式.

单层的向前反馈的带有线性输出权重的神经网络模型可以认为是一种自适应的基函数方法.模型有如下形式
f θ ( x ) = m = 1 M β m σ ( α m T x + b m ) (2.45) f_{\theta}(x)=\sum\limits_{m=1}^M\beta_m\sigma(\alpha_m^Tx+b_m) \tag{2.45}
其中, σ ( x ) = 1 / ( 1 + e x ) \sigma(x)=1/(1+e^{-x}) 被称作 激活 (activation) 函数.作为投射追踪模型,方向 α m \alpha_m 以及偏差项 b m b_m 必须要确定,而且他们的估计是计算的核心.将在第 11 章给出细节.

这些自适应选择基函数的方法也被称作 字典 (dictionary) 方法,其中有一个可用的候选基函数的可能无限集或字典 D \mathcal D 可供选择,而且通过应用其它的搜索机制来建立模型.

个人解读

粗糙度惩罚和贝叶斯惩罚小节中提及了二阶微分,众所周知二阶微分的绝对值大则代表了函数在该点邻域内较陡急,也就是原文所述的变化较快,反之就变化较小较平稳。二阶微分具体应用实例的参考可关注赵开斌学者所提出的关于抛物线的张口度概念,内容有助直观理解。

而有关基函数的概念,在Jason Ding的博客基函数与函数空间中的讲述较为详细,可供参考。

发布了33 篇原创文章 · 获赞 45 · 访问量 2526

猜你喜欢

转载自blog.csdn.net/nstarLDS/article/details/104409450
2.8