机器学习基石 Lecture5: Training versus Testing

机器学习基石 Lecture5: Training versus Testing

Recap and Preview

到上一课为止,讲到了机器学习整体的流程。在假设函数空间 H H 大小是有限的而且样本 D D 数量 N N 足够大时,对于任何的算法 A A ,得到的结果 g g 的样本内的错误率等于样本外的错误率(PAC)。
在这里插入图片描述
在整个的过程中有两个核心问题:1.是否能够保证样本内错误率 E i n ( g ) E_{in}(g) 足够接近样本外错误率 E o u t ( g ) E_{out}(g) ? 2.是否能够使得 E i n ( g ) E_{in}(g) 足够小?在这里吗假设空间 H H 的大小 M M 起到了很大的作用。如下图所示:
在这里插入图片描述
造成 M M 无穷大时问题无法解决的原因在于Hoeffding Inequality在计算时的一步放缩,如果我们能够在那个不等式中将 M M 替换成一个有限大小的值那么问题就得到了解决。
在这里插入图片描述

Effective Number of Lines

不等式中的 M M 是在计算数据集 D D 是一个比较坏(也就是样本内外错误率相差过大)的概率的联合上限时引入的,是一个非常宽松的放缩。
在这里插入图片描述
这个不等式右边是将每一个假设遇到的“坏”数据集的概率直接相加得到的。但是实际上,对于比较接近的假设函数,遇到"坏“数据集的概率分布是有很大的重合而不是完全分开的,如下图:
在这里插入图片描述
为了充分利用不同假设对应概率的重叠,可以选择将不同的假设函数进行分类。

Effective Number of Hypotheses

考虑PLA算法中线的类别。

  1. 当样本只有1个点时,假设函数有2类,但是有无数条。分别是将这个点划分为正或负。
  2. 当样本有2个点,假设函数有4类。
  3. 样本有3个点,可能有8类。但是如果三个点共线,那就只有6类。
  4. 而对应4个点时,分割线最多也只有14类。

因此对于有 N N 个点的数据集来说,最多也只有 2 N 2^{N} 种线的划分。把线的类别数量定义为有效数量(effective number of lines, effective(N))。也就是可以在上面的Hoeffding Inequality的推导的右侧使用这个数字替代 M M
在这里插入图片描述
那么只要这个数字远远小于 2 N 2^{N} 那么我们的目的就达到了。

现在定义一个假设函数将所有数据集分类的结果叫做一个dichotomy。如下图所示:
在这里插入图片描述
那么一个dichotomy对应的就是一类的假设函数,在PLA算法里就是同一类的分割线或分隔面。于是假设空间对应的dichotomies的大小 H ( x 1 , x 2 , . . . , x N |H(x_{1},x_{2},...,x_{N}| 就是上面的有效线的数量,也就可以用来替代不等式中的 M M

因为dichotomies的大小依赖于数据集 D D ,因此定义一个增长函数(growth Function) m H ( N ) m_{H}(N) 来去掉这个依赖性:
在这里插入图片描述
下面举几个例子说明这个函数:

在Positive Rays的问题里, m H ( N ) = N + 1 m_{H}(N)=N+1 。远小于 2 N 2^{N}
在这里插入图片描述

在一个范围函数作为分隔的问题里, m H ( N ) = 1 / 2 N 2 + 1 / 2 N + 1 m_{H}(N)=1/2N^{2}+1/2N+1 。远小于 2 N 2^{N}
在这里插入图片描述

在一个二维平面里,如果把一个凸集合的范围内的点作为正例,那么这个假设空间对应的 m H ( N ) = 2 N m_{H}(N)=2^{N}
在这里插入图片描述
总结下来这几种情况为:
在这里插入图片描述
如果使用这个增长函数替代不等式中的 M M ,那么如果它是多项式的,就满足条件,如果是指数级的,就会没有意义。

Break Point

我们还记得在二维感知机的情况下,当 N = 4 N=4 时最大的类别也一定小于16,也就是 2 N 2^{N} 。我们把第一个不等于 2 N 2^{N} 的点叫做这个假设空间的Break Point。
在这里插入图片描述
总结以下几种情况,似乎可以看到第一个Break Point点与Growth Function的增长速度的关系,以后的课程里进行进一步的证明。
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_25037903/article/details/83862879