简单的PRML阅读笔记

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u010223750/article/details/56008865

chapter1 绪论

chapter1.1 多项式拟合

  1. 离散标签叫做分类,连续标签叫做回归
  2. 在多项式拟合的问题中,随着阶数的变大,参数 M 通常会变得非常大,造成过拟合现象,因此,通过正则化(regulation)可以降低 M 的参数大小,这样的技术在统计学中叫收缩(shrinkage),在神经网络中称之为权重衰减(weight decay)

chapter1.2.5 重新考虑曲线拟合问题

  1. 对于点集 x=(x1,x2,x3,...xN)T 和它的对应目标 t=(t1,...tN)T ,在给定 xi 的情况下,将预测值 ti 看成均值为真实值 yi 的高斯分布, 可以得到似然函数:
    p(t|x,w,β)=n=1NN(tn|y(xn.w,β1))
    ,然后取对数的似然函数可以得到之前进行曲线拟合的时候使用的最小二乘法的公式,这也为最小二乘法提供了从最大似然函数的角度上的依据
  2. 如果将上面的结论朝着贝叶斯的方法前进一步,其实就是根据贝叶斯公式在似然函数上加入了参数的先验分布 p(w|α) ,如果该先验分布服从均值为0的高斯分布,那么可以得出
    p(w|α)=(α2π)M+12exp{α2wTw}
    ,其中 M 为参数个数, 这种技术称之为最大后验,最大后验概率就是最小化下式
    β2n=1N{y(xn,w)tn}2+α2wTw
    , 我常见的最后一项并不带进加和公式里面,但是如果从最开始就加入 p(w|α) 我觉得最后一项应该加进加和公式里,这也是我的疑惑,值得注意的是,这仍然不是纯正的贝叶斯观点,因为目前仍然使用的是对 w 的点估计,在纯粹的贝叶斯方法中,需要对所有的 w 进行积分,始终应用概率的加法和乘法原则。

chapter1.5 决策论

  1. 三种常见决策方法: 最小化错误分类率;最小化期望损失;拒绝选项
  2. 生成模型:确定条件密度 P(x|Ck) 判别模型:确定后验概率密度 P(Ck|x)
  3. 判别函数分类和概率无关,可对应到支持向量机分类
  4. 回归问题的估计函数:
    y(x)=Et[t|x]
    , 这一点可以对应到逻辑斯蒂回归的目标函数为 P(y=1|φ)

chapter4 分类的线性模型

chapter4.2 概率生成模型

概率生成模型是对类条件概率密度 p(x|Ck) 和类先验概率密度 p(Ck) 建模,然后使用这两个概率密度通过贝叶斯定力计算后验概率密度 p(Ck|x)
考虑二分类的情形,类别 C1 的后验概率可以写成:

p(C1|x)=p(x|C1)p(C1)p(x|C1)p(C1)+p(x|C2)p(C2)

=11+exp(α)=σ(α)
其中
α=ln(p(x|C1)p(C1)p(x|C2)p(C2))
σ 定义为:
σ(α)=11+exp(α)

对于多类,我们有:
p(Ck|x)=p(x|Ck)p(Ck)jexp(αj)=exp(αk)jexp(αj)
其中
αk=ln(p(x|Ck)p(Ck))

4.2.1 连续输入

假设类条件概率密度是高斯分布,且假设所有的类别的协方差矩阵相同,这样类别 Ck 的类条件概率是:

p(x|Ck)=1(2π)D21||12exp{12(xμk)T1(xμk)}
考虑两类情形,则有:
p(x|Ck)=σ(wTx+w0)
其中
w=1(μ1μ2)
w0=12μT11μ1+12μT21μ2+ln(p(C1)p(C2))
对于多类情况,则有
αk(x)=wTkx+wk0
其中
wk=1μk
wk0=12μTkkμ1

这些说明了,对于连续的输入,其概率公式 P(CK|x) 可以表示为线性模型

4.2.2最大似然解

4.3概率判别式模型

根据上一节的内容,

p(C1|φ)=y(φ=σ(wTφ))
对于数据集 φn,tn ,其中 tn{0,1} 有似然函数
p(t|w)=n=1Nytnn{1yn}1tn
似然函数的负对数即为交叉熵误差函数

猜你喜欢

转载自blog.csdn.net/u010223750/article/details/56008865