朴素贝叶斯的数学原理

使用条件概率选择概率最高的决策

1 条件概率 p(c|x)=p(x|c)p(c)/p(x)

推导:因为p(A|B)=p(A,B)/p(B),p(B|A)=p(A,B)/p(A) 所以P(A|B)=P(B|A)*P(A)/P(B)

全概率公式:如果事件A1,A2,,,,An 构成了一个完备事件而且都有正概率,对于B 有

p(B)=p(BA1)+p(BA2)+p(BA3)+...+p(BAn)=p(B|A1)p(A1)+...+p(B|An)p(An)

2 贝叶斯推断:

p(A|B) =P(A)*P(B|A)/P(B) ,P(A) 是先验,指B 事件发生前,对A事件概率的一个判断。

P(A|B) 为后验,指B 事件发生后,对A 事件概率的重新评估

P(B|A) /P(B) 称为可能性函数,是一个调整因子,使得预估概率更接近真实概率。

后验=先验·调整因子

扫描二维码关注公众号,回复: 5895809 查看本文章

3 朴素贝叶斯的种类:

高斯,多项式,伯努利 

多项式:假设特征是由一个简单的多项式分布生成的,描述各种特征样本出现的次数。适合描述出现次数或的次数比例的场景

伯努利 :特征出现或不出现两种情况,一个特征有没有在文档中出现

总结:特征是连续值,用高斯;特征是多元离散值,用多项式。特征是二元离散或者稀疏的多元离散:伯努利。 

极大似然估计:极大似然估计在机器学习中相当于经验风险最小化,一般流程是:确定似然函数(样本的联合概率分布),这个函数是关于所要估计的参数的函数,然后对其取对数,然后求导,

朴素贝叶斯:特征之间相互独立,每个特征同等重要

朴素贝叶斯的场景:文档的自动分类,一个文档为一个实例,每个词为一个特征,每个词的出现或者不出现作为特征的值,

工作原理:

提取所有文档中的词条并去重,

获取文档的类别(垃圾邮件和非垃圾邮件)

对每个文档:

   对每个类别:

            如果词条出现在文档中,增加该词条的计数值

             增加所有词条的计数值(此类别下词条总数)

    对每个类别:

          对每个词条:

              将词条数目除以总词条数目得到条件概率(p(词条|类别))

返回该文档属于每个类别的条件概率。

参考:https://www.bilibili.com/video/av36338359?from=search&seid=15131266308573570217

https://www.cnblogs.com/fantasy01/p/4598234.html

猜你喜欢

转载自blog.csdn.net/qq_16236875/article/details/89281832
今日推荐