统计学习方法笔记(八)朴素贝叶斯法

朴素贝叶斯法

简单介绍:输入输出的联合概率密度已知,对给定的输入,利用贝叶斯定理求出后验概率最大的输出

朴素贝叶斯法的基本方法

通过训练集来学习联合概率分布,即利用先验概率分布 P ( Y = c k ) , k = 1 , 2 , , K 以及条件概率分布 P ( X = x | Y = c k ) = P ( X ( 1 ) = x ( 1 ) , , X ( n ) = x ( n ) | Y = c k ) 来得到联合概率分布。
但是,条件概率分布的参数较多,其估计实际不可行,所以对条件概率分布做了条件独立性的假设,即当分类类别确定时,各个特征相互独立,具体为
P ( X = x | Y = c k ) = P ( X ( 1 ) = x ( 1 ) , , X ( n ) = x ( n ) | Y = c k )   = j = 1 n P ( X ( j ) = x ( j ) | Y = c k ) ( 1 )
利用独立性假设会使朴素贝叶斯法变得简单,但会牺牲一定的分类准确性。
当使得方法变得可实现之后,考虑如何找到最合适的模型,这里利用后验概率,将后验概率最大的类作为x的类的输出
后验概率计算利用贝叶斯定理进行计算:
P ( Y = c k | X = x ) = P ( X = x | Y = c k ) P ( Y = c k ) k P ( X = x | Y = c k ) P ( Y = c k ) ( 2 )
将(1)代入(2)中可得:
P ( Y = c k | X = x ) = P ( Y = c k ) j P ( X ( j ) = x ( j ) | Y = c k ) k P ( Y = c k ) j P ( X ( j ) = x ( j ) | Y = c k )
要使上式最大,等价于取:
y = arg max c k P ( Y = c k ) j P ( X ( j ) = x ( j ) | Y = c k )
1. 后验概率最大化的含义:
使得期望风险最小化,即:
f ( x ) = arg max c k P ( c k | X = x )

朴素贝叶斯法的参数估计

1、 极大似然估计
先验概率 P ( Y = c k ) 的极大似然估计:
P ( Y = c k ) = i = 1 N I ( y i = c k ) N , k = 1 , 2 , , K
条件概率 P ( X ( j ) = a j l | Y = c k ) 的极大似然估计是:
P ( X ( j ) = a j l | Y = c k ) = i = 1 N I ( x i ( j ) = a j l , y i = c k ) i = 1 N I ( y i = c k )
2、 朴素贝叶斯算法
1) P ( Y = c k ) = i = 1 N I ( y i = c k ) N , k = 1 , 2 , , K
P ( X ( j ) = a j l | Y = c k ) = i = 1 N I ( x i ( j ) = a j l , y i = c k ) i = 1 N I ( y i = c k )
2) 对于给定的实例 x = ( x ( 1 ) , x ( 2 ) , , x ( n ) ) T ,计算
P ( Y = c k ) j = 1 n P ( X ( j ) = x ( j ) | Y = c k )
3) 确定实例x的类
y = arg max c k P ( Y = c k ) j = 1 n P ( X ( j ) = x ( j ) | Y = c k )
3、 贝叶斯估计
条件概率的贝叶斯估计是:
P λ ( X ( j ) = a j l | Y = c k ) = i = 1 N I ( x i ( j ) = a j l , y i = c k ) + λ i = 1 N I ( y i = c k ) + S j λ

猜你喜欢

转载自blog.csdn.net/yeyustudy/article/details/79413450