-
基本方法
对于数据集
T={(xi,yi)}i=1N,由独立同分布的
P(X,Y)产生,朴素贝叶斯通过训练集学习联合概率分布
P(X,Y),具体的,学习以下的先验概率分布和条件概率分布得到,值得注意的是
x1和
x(1)是不一样的,
x1值得是第一个样本的数据,
x(1)指的是特征集中的第一个特征,
P(Y=ck)k=1,2,...,K
P(X=x/Y=ck)=P(X(1)=x(1),X(2)=x(2),...,X(n)=x(n)/Y=ck)k=1,2,...,K
于是得到联合分布概率
P(X,Y),
而朴素贝叶斯惊醒了一个对条件概率分布的条件独立性假设,如下,
P(X(i)=x(i)/Y)=P(X(j)=x(j)/Y,X(i)=x(i))
即特征
X(i)对于特征
X(j)关于
Y是相互独立的,但是特征之间有可能不独立,
P(X=x/Y=ck)=P(X(1)=x(1),X(2)=x(2),...,X(n)=x(n)/Y=ck)k=1,2,...,K
=j=1∏nP(X(j)=x(j)/Y=ck)k=1,2,...,K(1)
而对于如何求解
P(X(j)=x(j)/Y=ck),下文会讲述,
这时我们已经把每一项
P(X(j)=x(j)/Y=ck)求解出来,这是其实我们已经把联合概率分布求解出来了,如果还要继续求解后验概率的话,而后根据贝叶斯公式,后验概率如下所示,
P(Y=ck/X=x)=∑kP(X=x/Y=ck)P(Y=ck)P(X=x/Y=ck)P(Y=ck)
把(1)式带入上述公式得
P(Y=ck/X=x)=∑kP(Y=ck)∏j=1nP(X(j)=x(j)/Y=ck)P(Y=ck)∏j=1nP(X(j)=x(j)/Y=ck)
而当一个未知的
xu送入到模型中,得到的结果如下,
y=f(xu)=argmaxck∑kP(Y=ck)∏j=1nP(X(j)=xu(j)/Y=ck)P(Y=ck)∏j=1nP(X(j)=xu(j)/Y=ck)
而对于所有的式子来说,上式的分母都是相同的,因而上式可简化为如下,
y=f(xu)=argmaxckP(Y=ck)j=1∏nP(X(j)=xu(j)/Y=ck)
-
后验概率最大含义
朴素贝叶斯法将实例分到后验概率最大的类中,其实等价于期望风险最小化,从这一点可以看出朴素贝叶斯法其实是站在伪上帝的视角来考虑问题的,即现在我们就认为训练集中包含所有的可能数据,因而求出的风险就是期望风险,而不是经验风险,
这里统计学习方法的第49页有详细推导过程,这里只想提一点就是朴素贝叶斯用到的是0-1损失函数,
L(y,f(x))={1,Y=f(X)0,Y=f(X)
而且注意条件数学期望的理解,
-
算法说明
输入:训练数据
T={(xi,yi)}i=1N, 其中
xi=(xi(1),xi(2),...,xi(n))T,其中
xi(j)∈{aj1,aj2,...,ajSj},
j=1,2,...,n,
l=1,2,...,Sj,
yi∈{c1,c2,...,ck}, 实例
x,
输出:实例
x的分类结果,
- 计算先验概率及条件概率
P(Y=ck)=N∑i=1N1(yi=ck),k=1,2...,K
P(X(j)/Y=ck)=∑i=1N1(yi=ck)∑i=1N1(xi(j)=ajl,yi=ck)
j=1,2,...,nl=1,2,...,Sjk=1,2...,K
- 对于给定的
x=(x(1),x(2),...,x(n))T,计算
P(Y=ck)j=1∏nP(X(j)=x(j)/Y=ck)k=1,2,...,K
- 确定
x的分类
y=f(x)=argmaxckP(Y=ck)j=1∏nP(X(j)=x(j)/Y=ck)
-
贝叶斯估计
极大似然估计可能产生概率为0的情况,因而引入了贝叶斯估计,用如下式子矫正,
Pλ(X(j)/Y=ck)=∑i=1N1(yi=ck)+Sjλ∑i=1N1(xi(j)=ajl,yi=ck)+λ
等价于给随机变量的各个取值的频数上添加一个整数
λ, 当
λ=0时为极大似然估计,当其为1时,叫做拉普拉斯平滑,而先验概率的贝叶斯估计为
Pλ(Y=ck)=N+Kλ∑i=1N1(yi=ck)+λ,k=1,2...,K