jieba particípio palavra nuvem

Importar jieba 
exclui = { " Geral " , " Mas diga " , " Jingzhou " , " Dois " , " Não é possível " , " Não é possível " , " So " } 
txt = aberto ( " sg.txt " , " r " , codificação = ' utf-8 ' ) .read () 
palavras   = jieba.lcut (txt) 
conta = {}
 por palavraem palavras:
     se len (palavra) == 1 :
         continuar         
    se palavra == " Zhuge Liang "  ou palavra == " Kong Ming Yue " : 
        rword = " Kong Ming " 
    elif palavra == " Guan Gong "  ou palavra == " Yun Chang " : 
        rword = " Guan Yu " 
    elif palavra == " Supreme "  ou Palavra == " Xuande disse " :
        rword= " 刘备" 
    elif palavra == " 孟德"  ou palavra == " 丞相" : 
        rword = " 曹操" 
    outra coisa : 
        rword = palavra 
    contagem [rword] = counts.get (rword, 0) + 1
 para palavra no exclui:
     del ( count [word]) 
items = list (counts.items ()) 
items.sort (key = lambda x: x [1], reverse = True)
 para i no intervalo (5): 
    word, count = itens [i]
     print ( " {0: <10} {1:> 5} " .format (word, count)) 

da importação do wordcloud O WordCloud
 importa matplotlib.pyplot como plt
 import numpy como np
 do PIL import Image
 def create_word_cloud (nome do arquivo): 
    text = open ( " {} .txt " .format (nome do arquivo)). read () 
    wordlist = jieba.cut (text, cut_all = True) 
    wl = "  " .join (wordlist) 
    cloud_mask= np.array (Image.open ( " bg.png " )) 
    wc = WordCloud ( 
        background_color = " black " , 
        máscara = cloud_mask, 
        max_words = 2000 , 
        font_path = ' simsun.ttf ' , 
        height = 1200 , 
        width = 1600 , 
        max_font_size = 100 , 
        random_state = 100 , 
    ) 
    myword = wc.generate (wl)
    plt.imshow (minha palavra)
    plt.axis ( " off " ) 
    plt.show () 
    wc.to_file ( ' py_book.png ' ) 
 se  __name__ == ' __main__ ' : 
    create_word_cloud ( ' sg ' )

 

Acho que você gosta

Origin www.cnblogs.com/chenzhijie/p/12702633.html
Recomendado
Clasificación