百面机器学习|第八章采样知识点(一)

前言

如果你能找到这里,真是我的幸运~这里是蓝白绛的学习笔记,本集合主要针对《百面机器学习——算法工程师带你去面试》这本书。主要记录我认为重要的知识点,希望对大家有帮助。

第八章 采样

引导语

采样,是从特定概率分布中抽取相应样本点的过程。它可以将复杂的分布简化为离散的样本点;可以用重采样对样本集进行调整以更好地适应后期的模型学习;可以用于随机模拟以进行复杂模型的近似求解或推理。另外,采样在数据可视化方面也有很多应用,可以帮助人们快速、直观地了解数据的结构和特性。

1、采样的作用

  1. 采样本质上是对随机现象的模拟,根据给定的概率分布,来模拟产生一个对应的随机事件。采样可以让人们对随机事件及其产生过程有更直观的认识。例如通过对二项分布的采样,可以模拟“抛硬币出现正面还是反面”这个随机事件,进而模拟产生一个多次抛硬币出现的结果序列,或者计算多次抛硬币后出现正面的频率。
    另一方面,采样得到的样本集也可以看作是一种非参数模型,即用较少量的样本点(经验分布)来近似总体分布,并刻画总体分布中的不确定性。从这个角度来说,采样其实也是一种信息降维,可以起到简化问题的作用。例如在训练机器学习模型时,一般想要优化的是模型在总体分布上的期望损失(期望风险),但训练时用上全部的数据集是不可能的,采集和存储样本的代价也非常大。因此一般采用总体分布的一个样本集来作为总体分布的近似,称为训练集。同理,评估模型是看模型在另外一个样本集(测试集)上的效果。这种信息降维的特性,使得采样在数据可视化方面也有很多应用,它可以帮助人们快速、直观地了解总体分布中数据的结构和特性。
  2. 重采样可以充分利用现有数据集,挖掘更多信息,如自助法刀切法(Jack knife),通过对样本多次重采样来估计统计量的偏差方差等。
    另外,利用重采样技术,可以在保持特定的信息下(目标信息不丢失),有意识地改变样本的分布,以更适应后续的模型训练和学习,例如利用重采样来处理分类模型的训练样本不均衡问题
  3. 很多模型由于结构复杂、含有隐变量等原因,导致求解公式比较复杂,没有显式解析解,难以进行精确求解或推理。这时候可以用采样方法进行随机模拟,从而对复杂模型进行近似求解或推理。这一般会转化为某些函数在特定分布下的积分期望,或者是求某些随机变量或参数在给定数据下的后验分布等。
    例如在隐狄利克雷模型和深度波尔兹曼机的求解过程中,由于含有隐变量,直接计算比较困难,可以用吉布斯采样对因变量的分布进行采样。如果对于贝叶斯模型,还可以将因变量和参数变量放在一起,对他们的联合分布进行采样。注意,不同于一些确定性的近似求解方法(如变分贝叶斯方法、期望传播等),基于采样的随机模拟方法是数值型的近似求解方法。

2、均匀分布随机数

  1. 均匀分布是指整个样本空间中每个样本点对应的概率(密度)都是相等的。根据样本空间是否连续,分为离散均匀分布连续均匀分布
    计算机程序都是确定性的,因此并不能产生真正意义上的完全均匀分布随机数,只能产生伪随机数(伪随机数是指这些数字虽然是通过确定性的程序产生的,但是它们能通过近似的随机性测试)。另外由于计算机的存储和计算单元只能处理离散状态值,因此也不能产生连续均匀分布随机数,只能通过离散分布来逼近连续分布(用很大的离散空间来提供足够的精度)。
    一般可采用线性同余法(Linear Congruential Generator)来生成离散均匀分布伪随机数,计算公式为也就是根据当前生成的随机数来进行适当变换,进而产生下一次随机数。初始值称为随机种子,为乘法因子。
    线性同余法得到的随机数并不是相互独立的(下一次的随机数根据当前随机数来产生),且最多只能产生个不同的随机数,对于特定的种子,很多数无法取到,循环周期基本达不到。如果进行多次操作,得到的随机数序列会进入循环周期。因此,一个好的线性同余随机数生成器,要让其循环周期尽可能接近,需要精心选择合适的乘法因子和模数。

3、常见的采样方法

  1. 几乎所有的采样方法都是以均匀分布随机数作为基本操作。假设已经可以生成上的均匀分布随机数,对于一些简单的分布,可以直接用均匀采样的一些扩展方法来产生样本点,比如有限离散分布可以用轮盘赌算法来采样。很多分布一般不好直接进行采样,可以考虑函数变换法
    一般地,如果随机变量和存在变量关系,则他们的概率密度函数有如下关系:因此,如果从目标分布中不好采样,可以构造一个变换,使得从变换后的分布中采样比较容易,这样可以通过先对进行采样,然后通过反函数来间接得到。如果是高维空间的随机向量,则对应Jacobian行列式。
  2. 逆变换采样(Inverse Transform Sampling):在函数变换法中,如果变换关系是的累积分布函数的话,则得到所谓的逆变换采样。假设待采样的目标分布的概率密度函数为,它的累积分布函数为则逆变换采样法按如下过程进行采样:
    (1) 从均匀分布产生一个随机数;
    (2) 计算,其中是累积分布函数的逆函数。
    上述采样过程得到的服从分布,下图是逆变换采样法的示意图。
    15697855-4c540ce9be4222d5.jpg
    8-3 逆变换采样示意图
  3. 如果待采样的目标分布的累积分布函数的逆函数无法求解或者不容易计算,则不适用于逆变换采样法。可以构造一个容易采样的参考分布,先对参考分布进行采样,然后对得到的样本进行一定的后处理操作,使得最终的样本服从目标分布。例如拒绝采样(Rejection Sampling)、重要性采样(Importance Sampling)。
  4. 拒绝采样(Rejection Sampling):又叫接受/拒绝采样(Accept-Reject Sampling)。对于目标分布,选取一个容易采样的参考分布,使得对于任意都有,则可以按如下过程进行采样:
    (1) 从参考分布中随机抽取一个样本;
    (2) 从均匀分布产生一个随机数;
    (3) 如果,则接受样本;否则拒绝,回到(1)继续产生样本,直到样本被接受。
    最终得到的服从目标分布,如下图(a)所示,拒绝采样的关键是为目标函数选取一个合适的包络函数,包络函数越紧,每次采样时样本被接受的概率越大,采样效率越高。
    在实际应用中,为了维持采样效率,有时很难寻找一个解析形式的,因此延伸出了自适应拒绝采样(Adaptive Rejection Sampling),在目标函数是对数凹函数时,用分段线性函数来覆盖目标函数的对数,如下图(b)所示。
    15697855-5e47a18bc3d9f932.jpg
    8-3 拒绝采样示意图
  5. 重要性采样(Importance Sampling):很多时候采样的最终目的不是为了得到样本,而是为了进行一些后续任务,如预测变量取值,通常表现为一个求函数期望的形式。重要性采样就是用于计算函数在目标分布上的积分(函数期望),即首先找一个比较容易抽样的参考分布,并令,则有这里可以看成是样本的重要性权重。由此可以从参考分布中抽取个样本,然后利用如下公式来估计:下图是重要性采样的示意图。
    15697855-431ecacc7d8f10b6.jpg
    8-3 重要性采样示意图.jpg

    如果不需要计算函数积分,只想从目标分布中采样出若干样本,则可以用重要性重采样(Sampling-Importance Re-sampling,SIR),先在从参考分布中抽取个样本,然后按照他们对应的重要性权重对这些样本进行重新采样(这是一个简单的针对有限离散分布的采样),最终得到样本服从目标分布。
  6. 在实际应用中,如果是高维空间的随机向量,拒绝采样和重要性重采样经常难以寻找合适的参考分布采样效率低下(样本的接受概率小或重要性权重低),可以考虑马尔可夫蒙特卡洛采样法,常见的有Metropolis-Hastings采样法吉布斯采样法

小结

这是本章的第一部分,讲了采样的作用,基本的均匀分布随机数生成(线性同余法),和一些基本的采样方法,如逆变换采样、拒绝采样、重要性采样。对这节内容不太熟,基本是把书抄了一遍。后面会继续整理高斯采样、马尔可夫蒙特卡洛采样、贝叶斯网络的采样以及处理不均衡数据集的各种重采样方法。

结尾

如果您发现我的文章有任何错误,或对我的文章有什么好的建议,请联系我!如果您喜欢我的文章,请点喜欢~*我是蓝白绛,感谢你的阅读!

猜你喜欢

转载自blog.csdn.net/weixin_34290096/article/details/87108358