中文词频统计

中文词频统计


这个作业的要求来自于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/2773

1. 下载一长篇中文小说。

2. 从文件读取待分析文本。

3. 安装并使用jieba进行中文分词。

pip install jieba

import jieba

ljieba.lcut(text)

4. 更新词库,加入所分析对象的专业词汇。

jieba.add_word('天罡北斗阵')  #逐个添加

jieba.load_userdict(word_dict)  #词库文本文件

参考词库下载地址:https://pinyin.sogou.com/dict/

转换代码:scel_to_text

5. 生成词频统计

7. 排除语法型词汇,代词、冠词、连词等停用词。

stops

8. 输出词频最大TOP20,把结果存放到文件里

9. 生成词云。

安装词云:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple wordcloud

下载安装:下载 https://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud

安装 找到下载文件的路径  pip install wordcloud-1.5.0-cp37-cp37m-win_amd64.whl

配置:

在WordCloud安装的目录下找到WordCloud.py文件,对源码进行修改。

编辑wordcloud.py,找到FONT_PATH,将DroidSansMono.ttf修改成msyh.ttf。这个msyh.ttf表示微软雅黑中文字体。

在同一个目录下放置msyh.ttf字体文件供程序调用(字体可以在C:\Windows\Fonts复制)

使用:

1、引入模块

from wordcloud import WordCloud

import matplotlib.pyplot as plt

2、导入文本

  准备生成词云的文本word_text =' '.join(wordlist)  #是以空格分隔的字符串

4、生成词云

mywc = WordCloud().generate(wl_split)

5、显示词云

plt.imshow(mywc)

plt.axis("off")

plt.show()

#载入短片小说并转换成utf-8编码
import jieba
txt=open('xiaoshuo.txt','r',encoding='UTF-8').read()
words=list(jieba.cut(txt))

#除去语法词汇
dic={}
exp={'','','','','','','','!','?'}
keys=set(words)-exp

# 单词计数字典
for i in keys:
    if len(i)>1:
        dic[i]=words.count(i)
wa=list(dic.items())
wa.sort(key=lambda x:x[1],reverse=True)#排序

#输出前词频前20的效果
for i in range(20):
    print(wa[i])
=============== RESTART: C:/Users/Administrator/Desktop/11.py ===============
Building prefix dict from the default dictionary ...
Loading model from cache C:\Users\ADMINI~1\AppData\Local\Temp\jieba.cache
Loading model cost 0.670 seconds.
Prefix dict has been built succesfully.
('泰山', 29)
('叶凡', 28)
('众人', 17)
('同学', 17)
('没有', 17)
('青铜', 13)
('一个', 12)
('感觉', 11)
('昨天', 11)
('刘云志', 10)
('封禅', 10)
('过去', 9)
('神秘', 9)
('林佳', 8)
('李小曼', 8)
('那些', 7)
('像是', 7)
('龙尸', 7)
('上古', 7)
('毕业', 7)

猜你喜欢

转载自www.cnblogs.com/tysonnnn2/p/10552759.html