NLP--Bayes-NGram(三)

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/lyf52010/article/details/85300371

资料链接: https://github.com/lyf124/AllProject/tree/master/MachineLearning/NLP/lesson2-bayes-ngram

1. 引言:朴素贝叶斯的局限性

我们知道朴素贝叶斯的局限性来源于其条件独立假设,它将文本看成是词袋子模型,不考虑词语之间的顺序信息,就会把“武松打死了老虎”与“老虎打死了武松”认作是一个意思。那么有没有一种方法提高其对词语顺序的识别能力呢?有,就是这里要提到的N-gram语言模型

CountVector

猜你喜欢

转载自blog.csdn.net/lyf52010/article/details/85300371
NLP