《统计机器学习》第一章学习笔记和习题

学习笔记

  1. 统计学习(统计机器学习)是关于计算机基于数据构建概率统计模型并运用模型对数据进行分析与预测的一门学科。

  2. 统计学习分类:
    (1)监督学习(supervised learning)
    (2)非监督学习(unsupervised learning)
    (3)半监督学(semi-unsupervised learning)
    (4)强化学习(reinforcement learning)

  3. 统计学习方法(三要素):
    (1)模型的假设空间(模型)
      假设空间可以定义为决策函数的集合

    F = { f | Y = f ( X ) }

      也可以定义为条件概率集合
    F = { P | P ( Y | X ) }

    (2)模型选择的准则(策略)
    (3)模型学习的算法(算法)

  4. 监督学习
      从给定有限的训练数据出发,假设数据是独立分布的。而且模型属于某个假设空间,应用某一评价准则,从假设空间中选取一个最优的模型,使它对已给训练数据及未知测试数据在给定评价标准意义下有最准确的预测。

  5. 损失函数
    (1)0-1损失函数

    L ( Y , f ( X ) ) = { 1 , Y f ( X ) 0 , Y = f ( X )

    (2)平方损失函数
    L ( Y , f ( X ) ) = ( Y f ( X ) ) 2

    (3)绝对损失函数
    L ( Y , f ( X ) ) = | Y f ( X ) |

    (4)对数损失函数
    L ( Y , P ( Y | X ) = l o g P ( Y | X )

  6. 期望损失(风险函数):理论上模型 f ( X ) 关于联合分布 P ( X , Y ) 的平均意义下的损失。

    R e x p ( f ) = E P [ L ( Y , f ( X ) ) ] = X × Y L ( y , f ( x ) ) P ( x , y ) d x d y

  7. 经验损失(经验风险):模型 f ( X ) 关于训练集的平均损失。

    R e m p = 1 N i = 0 N L ( y i , f ( x i ) )

  8. 经验风险最小化(emprical risk minimization, ERM):经验风险最小的模型是最优的模型。即求解最优化问题:

    min f F 1 N i = 0 N L ( y i , f ( x i ) )

    当样本空间足够大时,经验风险最小化可以保证有很好地学习效果,但是, 当样本容量很小时,经验风险最小化会产生“过拟合(over-fitting)”现象.

  9. 过拟合:是指学习时选择的模型所包含的参数过多,以致于出现这一模型对已知数据预测的很好,但对未知数据预测的很差的现象。
  10. 结构风险最小化:等价于正则化,是为了防止过拟合而提出的策略。在假设空间、损失函数以及训练数据集确定的情况下,结构风险的定义是:

    R s r m = 1 N i = 0 N L ( y i , f ( x i ) ) + λ J ( f )

    其中 J ( f ) 为模型的复杂度。
    结构风险最小化的策略认为经验风险最小的模型是最优的模型,即求解最优化问题:
    min f F 1 N i = 0 N L ( y i , f ( x i ) ) + λ J ( f )

  11. 训练误差:模型 Y = f ^ ( X ) 关于训练数据集的平均损失:

    R e m p ( f ^ ) = 1 N i = 0 N L ( y i , f ^ ( x i ) )
    ,其中 N 是训练样本容量。

  12. 测试误差是模型 Y = f ^ ( X ) 关于测试数据集的平均损失:

    e t e s t = 1 N i = 0 N L ( y i , f ^ ( x i ) )
    ,其中 N 是测试样本容量。

  13. 模型选择的方法:
      正则化交叉验证

  14. 泛化误差:如果学到的模型是 f ^ ,那么用这个模型对未知数据预测的误差即为泛化误差。泛化误差反映了学习方法的泛化能力。

    R e x p ( f ^ ) = E P [ L ( Y , f ^ ( X ) ) ] = X × Y L ( y , f ^ ( x ) ) P ( x , y ) d x d y

  15. 生成模型:由数据学习联合概率分布 P ( X , Y ) ,然后求出条件概率分布 P ( Y | X ) 作为预测的模型, 即生成模型:

    P ( Y | X ) = P ( X , Y ) P ( X )

    典型的生成模型包括:朴素贝叶斯法和隐马尔可夫模型。

  16. 判别模型:由数据直接学习决策函数 f ( X ) 或者条件概率分布 P ( Y | X ) 作为预测的模型。典型的判别模型包括:k近邻法、感知机、决策树、逻辑斯蒂回归模型、最大熵模型、支持向量机、提升方法和条件随机场等。

  17. 生成模型与判别模型的特点:
    生成方法可以还原出联合概率分布 P ( X , Y ) ,而判别方法不能;
    生成方法的学习收敛速度更快;
    当存在隐变量时,仍可以用生成方法学习,而判别方法不能;
    判别方法直接学习的是条件概率或决策函数,直接面对预测,往往学习的准确率更高;
    判别方法可以对数据进行各种程度上的抽象、定义特征并使用特征,可以简化学习问题。

习题

1.1

模型:伯努利模型,即定义在取值为0和1的随机变量上的概率分布;
策略:极大似然估计和贝叶斯估计的策略都是对数损失函数;
算法:对经验风险求导,使导数为0;
定义随机变量 X 为一次伯努利实验的结果,其中 X { 0 , 1 } ,并且

P { X = x } = { θ x = 1 1 θ x = 0

X = { X 1 , X 2 , , X n } , 并且 X 1 , X 2 , , X n 是独立同分布的。
(1)利用极大似然估计结果为1的概率
极大似然估计法认为参数是固定的,但可能由于一些外界干扰是使数据看起来不完全由参数决定,虽然存在误差,但只需在数据给定的情况下,选取概率最大的参数,即求得 P ( θ | X ) 最大的参数 θ ,可形式化为:
(1) arg max θ P ( θ | X )

由条件概率公式得:
(2) P ( θ | X ) = P ( X | θ ) P ( θ ) P ( X ) .

由于在极大似然估计中假设 θ 是确定的,所以 P ( θ ) 是一个常数, P ( X ) 同样根据已有数据得到,也是确定的,所以公式(1)可简化为
(3) arg max θ P ( X | θ )

由于 X 1 , X 2 , , X n 独立同分布,则
(4) P ( X | θ ) = i = 1 n P ( X i | θ ) = θ k ( 1 θ ) n k

对公式(4)取对数求解极大似然,得:
θ = a r g max θ P ( X | θ ) = k n

(2)利用贝叶斯估计结果为1的概率
在贝叶斯估计中假设 θ 是一个随机变量,且服从 β 分布。因而, P ( θ ) 不是一个常量。则公式(2)分母不变,求分子最大即可。

θ = a r g max θ P ( X | θ ) = a r g max θ P ( X 1 , X 2 , . . . X n | θ ) P ( θ ) = a r g max θ i = 1 n P ( X i | θ ) P ( θ ) = a r g max θ θ k ( 1 θ ) n k θ a 1 ( 1 θ ) b 1 = k + ( a 1 ) n + ( a 1 ) + ( b 1 )

通常a,b根据实际问题选定。
a = 1 , b = 1 时, θ = k n

1.2

模型是条件概率分布: P θ ( Y | X ) , θ R n
对数损失函数: L ( Y , P ( Y | X ) ) = l o g P ( Y | X )
经验风险为:

R e m p ( f ) = 1 N i = 1 N L ( y i , f ( x i ) ) = 1 N i = 1 N l o g P ( y i | x i ) = 1 N i = 1 N l o g P ( y i | x i )

最小化经验风险,即最大化 i = 1 N l o g P ( y i | x i )
等价于最大化 i = 1 N P ( y i | x i ) , 即极大似然估计。

参考

[1] https://blog.csdn.net/liu1194397014/article/details/52766760

猜你喜欢

转载自blog.csdn.net/baixiangxue/article/details/80353228