naive bayes注意的一个点

P(A_{i}|B) = \frac{P(B|A_{i})*P(A_{i})}{P(B)}

bayes公式如上

bayes分类器的本质实际是对P(A_{i}|B)不好直接计算,转化为与P(B|A_{i})的逆向条件概率,其中有一个重要的假设B中每个元素条件独立,这样,就可以讲P(B|A_{i})的联合分布变成一个个P(B_{j}|A_{i})单独的条件分布。对于给定的traindata,所有的P(A_{i})P(B_{j}|A_{i})都是可以统计出来的,P(B)则是一个常量,不起作用。

当traindata训练好之后,有一个问题。就是先验概率是否满足客观规律呢???traindata中的P(A_{i})是不是和实际生活中P(A_{i})一致???traindata的分布是不是真实分布???不得而知!

对于先验概率P(A_{i}),当我们不知道真实分布的样子时,最直观的假设就是所有A_{i}均匀分布(此时所有P(A_{i})也完全相同),分类结果变成了P(A_{i}|B)\oe \prod P(B_{j}|A_{i}),和似然概率成正比!

traindata中A_{i}分布和真实A_{i}分布的可信度足够高时,P(A_{i})取traindata中的数值!

直接取所有A_{i}均匀分布,很有可能和真实分布不符合,所以我们应该在test和valid数据集交叉验证中获取到最好的先验分布,先验概率其实就是个超参数

猜你喜欢

转载自blog.csdn.net/Wzz_Liu/article/details/81303637
今日推荐