python学习-112-通过sklearn实现自然语言处理的KMeans聚类方法(清晰版)

前言:

         kmeans聚类是一种非常常用的聚类方法,因其简单理解,运算高效的特点被广泛使用,今天我们通过强大的sklearn包进行kmeans的实现,通过自然语言处理的文本聚类来进行功能实现。这里只展示清晰的代码实现过程,理论知识与流程不在赘述。

使用的数据集地址:

https://download.csdn.net/download/u013521274/11080094

对于初学python的人来说,找到可以看懂的代码,没有数据无法运行的确是头疼的事情所以本人在此把数据集给出,以便于更多的小伙伴们记性学习,共同进步。

代码实现:

# -*- coding: utf-8 -*-
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.feature_extraction.text import TfidfTransformer,CountVectorizer,HashingVectorizer

#-----------------------------------------第一步计算TFIDF---------------------------------------
corpus = []
for line in open('data/Result.txt', 'r',encoding='utf-8',errors='ignore').readlines():
    corpus.append(line.strip())
print('库有几行:',len(corpus)) #一行代表一个文档(也可以代表一类据情况而定)

vectorizer = CountVectorizer()#将文本中的词语转换为词频矩阵 矩阵元素a[i][j] 表示j词在i类文本下的词频

transformer = TfidfTransformer()#该类会统计每个词语的tf-idf权值

#第一个fit_transform是计算tf-idf 第二个fit_transform是将文本转为词频矩阵
tfidf = transformer.fit_transform(vectorizer.fit_transform(corpus))#获得tfidf值

word = vectorizer.get_feature_names()#获取词袋模型中的所有词语->词表

weight = tfidf.toarray()#将tf-idf矩阵抽取出来,元素w[i][j]表示j词在i类文本中的tf-idf权重
num = np.array(weight)  #这个权重其实即使大的稀疏矩阵
print("矩阵的列是",num.shape[1])#列数=词表的个数
print( '词表大小:'+str(len(word)))#可以作为比对


#-----------------------------------------第二步 聚类kmeans------------------------------------
from sklearn.cluster import KMeans
clf = KMeans(n_clusters=4) #参数4代表聚成4类,还有其他参数可以设置
s=clf.fit(weight) #调用fit()方法进行聚类 输入:weight=Tfidf的稀疏矩阵
print(s)          #可以查看kmeans()其他参数

#中心点
print(len(clf.cluster_centers_))#对于矩阵来说len是行
# print(clf.cluster_centers_)#4类 每一类的中心点

#用来评估簇的个数是否合适,距离越小说明簇分的越好,选取临界点的簇个数  958.137281791
# print(clf.inertia_)#    958.1511490717049

#---------------------------------------第三步文档所属簇的索引(标号)提取----------------------

#每一个样本所属于的簇-------最终要的东西---我们聚类的目的就是要知道每一个文档所属于的簇----
# print(clf.labels_)
#我们就是把clf.labels_中的信息提取出来以便于画图
listlabel=[]
i=0
while i<len(clf.labels_):
    listlabel.append([i,clf.labels_[i]])
    i=i+1

frame = pd.DataFrame(listlabel,columns=['index','class'])#使用pandas处理方便

'''属于0簇的文档索引index保存在list0中'''
list0=[]                                                 #簇是从0开始计数的第0类,第1类...
data0=frame[(frame[u'class']==0)].ix[:,0]
for m in data0:
    list0.append(m)

list1=[]
data1=frame[(frame[u'class']==1)].ix[:,0]
for m in data1:
    list1.append(m)

list2=[]
data2=frame[(frame[u'class']==2)].ix[:,0]
for m in data2:
    list2.append(m)

list3=[]
data3=frame[(frame[u'class']==3)].ix[:,0]
for m in data3:
    list3.append(m)

#---------------------------------------第四步 图形输出 PCA降维-------------------------------#
from sklearn.decomposition import PCA
pca = PCA(n_components=2)#输出2维
newData = pca.fit_transform(weight)
print('降维后有几行?',len(newData))
# print(newData)

#5A景区
x1=[]          #存储x坐标
y1=[]          #存储y坐标
for j in list0:
    x1.append(newData[j][0])
    y1.append(newData[j][1])

#动物
x2 = []
y2 = []
for j in list1:
    x2.append(newData[j][0])
    y2.append(newData[j][1])

#人物
x3 = []
y3 = []
for j in list2:
    x3.append(newData[j][0])
    y3.append(newData[j][1])

#国家
x4 = []
y4 = []
for j in list3:
    x4.append(newData[j][0])
    y4.append(newData[j][1])

#四种颜色 红 绿 蓝 黑
plt.plot(x1, y1, 'or')
plt.plot(x2, y2, 'og')
plt.plot(x3, y3, 'ob')
plt.plot(x4, y4, 'ok')
plt.show()

聚类结果:

猜你喜欢

转载自blog.csdn.net/u013521274/article/details/87924876
今日推荐