中文自动分词---HanLP+jieba

HanLp

主要功能包括分词、词性标注、关键词提取、自动摘要、依存句法分析、命名实体识别、短语提取、拼音转换、简繁转换等等。

Github地址:

https://github.com/hankcs/HanLP

安装教程:

https://mp.weixin.qq.com/s/RQ2o15Bm_6qEGEBj3YR_kQ

demo地址:

https://github.com/hankcs/pyhanlp/tree/master/tests/demos

jieba

“结巴”中文分词:做最好的 Python 中文分词组件。

GitHub地址:

https://github.com/fxsjy/jieba

安装方法:

easy_install jieba 或者 pip install jieba / pip3 install jieba

demo地址:

https://github.com/fxsjy/jieba

入门的知识繁杂,广大前辈的资料充足,站在前人的肩膀上,事倍功半!

贴一个前辈的地址!

博客地址:https://blog.csdn.net/m0_37306360/column/info/30073/2

发布了92 篇原创文章 · 获赞 23 · 访问量 6万+

猜你喜欢

转载自blog.csdn.net/Pit3369/article/details/94880693