Python第三方库____jieba

jieba是优秀的中文分词第三方库

       中文文本需要通过分词获得单个词语

        jieba是优秀的中文分词第三方库,需要额外安装  (pip install jieba)

        jieba库提供三种分词模式,最简单只需掌握一个函数

jieba分词原理

        利用一个中文词库,确定汉字之间的关系概率

        汉字之间概率大的组成词组,形成分词结果

        除了分词,用户还可以添加自定义词组

jieba分词三种模式

       精确模式、全模式、搜索引擎模式

       精确模式:把文本精确的切分开,不存在冗余单词   (最常用)

       全模式:把文本中所有可能的词语都扫描出来,有冗余

       搜索引擎模式:在精确模式基础上,对长词再次切分

jieba库常用函数:

       jieba.lcut(s)         精确模式,返回一个列表类型的分词结果                          l--> list   cut -- 分词类型  精确模式

       jieba.lcut(s,cut_all=True)   全模式,返回一个列表类型的分词,存在冗余

      jieba.lcut_for_search(s)      搜索引擎模式,返回一个列表类型的分词结果,存在冗余

      jieba.add_word(w)               向分词词典增加新词w

猜你喜欢

转载自www.cnblogs.com/masked/p/8977422.html