目录
基于条件随机场模型的中文分词实现:https://blog.csdn.net/admiz/article/details/109846185
改进分词速度
一、更改存储特征值的数据结构
在保存征值时,我们可以用字典、列表等数据结构来对结果保存。经过多次对不同数据结构的测试,发现在字典内嵌套的层数越多,遍历的速度越慢。针对特征四的所有结果中……
最慢的是形如: {'希': {'B': {'前': {' '长':0 }, '后': {'望': 0}}, 'M': {'前': {'阎': 0 }, '后': {'军': 0}}, 'E': {'前': {'里': 0}, '后': {'在': 0}}, 'S': {'前': {'几': 0}, '后': {'一': 0}}}的三四层嵌套字典。(该字典dict的用法:寻找“希”字在“B” 状态时前面为“长”的概率是多少时输入dict[‘希’][‘B’][‘前’][‘长’]即可找到相应的数据。)
最快的是形如: {'希': {'腊': [1.0, 1.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], '希': [0.3, 0.6, 0.6, 0.3, 0.0, 0.0, 0.0, 0.0]}, '腊': {'希': [0.0, 0.0, 0.034, 0.034, 0.965, 0.965, 0.0, 0.0]}} 该字典dict的用法:寻找“希”字在“B”状态时前面为“腊”的概率是多少时输入dict[‘希’][‘腊’][0],寻找“希”字在“B”状态时后面为“腊”的概率是多少时输入dict[‘希’] [‘腊’] [1],寻找“希”字在“M”状态时前面为“腊”的概率是多少时输入dict[‘希’] [‘腊’] [2],以此类推……)
同时我们也发现字典内的字越少,遍历越快,所以在遍历时可以加个判断来筛选出有用的数据,不添加没用的数据到列表中。
综上所述,当采用嵌套层数越少的数据结构,并只把有用的数据保存到数据结构中,分词速度能有一定的提升。
二、缩短对语料库的遍历时间(对语料库的预处理)
在针对某字寻找特征二时,需要遍历一遍语料库来寻找该字的所有状态来求得需要的概率,特征三、特征四同理。而语料库有四百多万个字,当要寻找多个字的所有特征值时,约等于需要遍历三遍[(分词列表的长度数)x(四百多万)]个字,若分词列表内有十个字则需要遍历三次四千万多字。
为缩短对语料库的遍历时间,可以对语料库进行精准的删减。通过对特征二、特征三、特征四的理解,我们得知特征二只针对分词列表内的字,特征三针对分词列表内的字以及其下一个字,特征四针对分词列表内的字以及它的上一个字和下一个字。
至此我们可以知道,如果一个语料库能解决计算特征四的问题,那么这个语料库也能解决计算出特征二、特征三的问题。
生成所需语料库的步骤:
(1)打开并读取语料库
wordFile=open("msr_training.utf8.ic",'r',encoding='utf-8')
wordFeedInit=wordFile.readlines() #[0]=字 [2]=标注
wordFile.close
wordFeedLen=len(wordFeedInit)
(2)获取分词内容(列表)
str1=input("请输入要分词的字符串:")
(3)保存分词列表内每个字及它的上下字的数据
wordFeed = [ ] #用来储存所需语料库
for i in range(1,wordFeedLen-1):
if wordFeedInit[i][0] in str1:
key1=[wordFeedInit[i-1],wordFeedInit[i],wordFeedInit[i+1]]
wordFeed.extend(key1)
wordFeedLen=len(wordFeed)
三、先将所有的特征值保存到数据库中
即使是精准地缩短了语料库的长度,但在整个程序的运行时间里,大部分时间基本都用在了遍历上。为了不遍历语料库,我们可以先将所有的特征值写入到数据库中,在程序运行时不再需要遍历语料库来求特征值,只需要通过数据库查询语句即可找到所需的值,这样一来,获取特征值的时间几乎可以忽略,十个字的分词只需50毫秒左右。
为方便后期调用数据库,这里采用Python自带的轻量级数据库—SQLite。
将语料库中的所有字的特征值写入到数据库的方法:
(1)找出所有字(约5100个字)
words=[]
for i in range(wordFeedLen):
if wordFeed[i][0] not in words :
words.append(wordFeed[i][0])
(2)寻找words列表内每个字的特征值
步骤同中文分词实现的特征学习 ,此处省略。
(3)将数据插入数据库中(以特征四为例)
con = sqlite3.connect('charaD.db') #创建或连接数据库
conn = con.cursor()
for i in range(0,len(words)):
i=words[i]
a=charDJudge(i)
conn.execute('''CREATE TABLE ''' + i +\
'''(WORD char(10) PRIMARY KEY ,
B0 REAL ,
B1 REAL ,
M0 REAL ,
M1 REAL ,
E0 REAL ,
E1 REAL ,
S0 REAL ,
S1 REAL );''')
cmdCharaDInit="INSERT INTO "+ i +\
"(WORD,B0,B1,M0,M1,E0,E1,S0,S1) VALUES ('字', 1,1,1,1 )"
for key in a:
wordCharaD="'"+key+"'"+','+str(a[key][0])+','+str(a[key][1])+','+str(a[key][2])+','+\
str(a[key][3])+','+str(a[key][4])+','+str(a[key][5])+','+str(a[key][6])+','+str(a[key][7])
cmdCharaD=cmdCharaDInit.replace( "'字', 1,1,1,1" , wordCharaD)
conn.execute(cmdCharaD)
con.commit()
con.close()
(4)查询数据的操作(以查询特征四中间的字为例):
conD = sqlite3.connect('charaD.db')
def charaD(testWord):
cursorD = conD.cursor()
cmdDInit="SELECT * FROM wordTab WHERE WORD=='字';"
testDict = { }
testDict=setDict3(testWord)
for i in range(0,len(testWord)):
cmdD=cmdDInit.replace('wordTab',testWord[i])
#查询第二个字到倒数第二个字
elif i>0 and i<len(testWord)-1:
cmdD=cmdD.replace('字',testWord[i+1])
cursorD =conD.execute(cmdD)
for it in cursorD:
testDict[testWord[i]]['B'][testWord[i+1]]=[it[1],it[2]]
testDict[testWord[i]]['M'][testWord[i+1]]=[it[3],it[4]]
testDict[testWord[i]]['E'][testWord[i+1]]=[it[5],it[6]]
testDict[testWord[i]]['S'][testWord[i+1]]=[it[7],it[8]]
cmdD=cmdD.replace('字',testWord[i-1])
cursorD =conD.execute(cmdD)
for it in cursorD:
testDict[testWord[i]]['B'][testWord[i-1]]=[it[1],it[2]]
testDict[testWord[i]]['M'][testWord[i-1]]=[it[3],it[4]]
testDict[testWord[i]]['E'][testWord[i-1]]=[it[5],it[6]]
testDict[testWord[i]]['S'][testWord[i-1]]=[it[7],it[8]]
改进分词的准确度
在提高了分词速度后,我们发现一些专有名词会被错误分开,如:“大数据”会被分为“大数”、 “据”,“搜索引擎”会被分为“搜索”、“ 引擎”,“人工智能”会被分为“人”、“工”、“智能”……
究其原因是因为语料库中不存在这些新词或专有名词等词,以及条件随机场分词是基于概率,存在着一定的误差。
为解决这个问题,我们可以从“先验知识”和“人机耦合”的角度出发,在分词前先人工输入哪些词是固定词语,再让程序在最后分词的时候留意这些固定词语,不去拆开这些固定词语,以此来提高准确度。
此方法和目前输入法的“个性化词库”有点类似。
不拆分固定词语的方法:
(1)人工输入固定词语
fixation=input("若有专有名词请输入该词,无则按回车:")
if len(fixation)>1 :
import re
fixaStr=testString
fixalist=[]
for i in str1:
fixalist.append(i)
fixaWord=fixation
(2)通过正则表达式寻找固定词语在分词列表的位置
str=u'str1' .replace("str1",fixaStr)
word = u'固定'.replace('固定',fixaWord)
a = [m.start() for m in re.finditer(word, str)]
(3)将固定词语标记为“S”
a.reverse()
for i in a:
end=i+len(fixaWord)
del signList[i+1:end]
signList[i][0]=fixaWord
signList[i][1]='S'
实验项目和结果截图
实验项目
完整的项目已上传到:https://wws.lanzous.com/isXMej49sej
或者:https://download.csdn.net/download/admiz/13132304
普通版内容:
数据库版内容,该程序已支持“人机耦合”:
保存特征值时采用多层嵌套(多特征多嵌套-34.9秒)
用户输入要分词的句子
针对分词句子的特征二
针对分词句子的特征三
针对分词句子的特征四(部分):多层嵌套
针对分词句子的关系矩阵
分词结果
保存特征值时不采用多层嵌套(仅特征四少嵌套-32.73秒)
针对分词句子的特征四(部分)
分词结果
缩短对语料库的遍历时间(语料库预处理-4.24秒)
分词结果
将所有的特征值保存到数据库后(最快-0.04秒)
数据库内容如图,由于采用了SQLite来创建数据库,5130个表,近五十万条数据,只有62M。相同的数据存储至SqlServer、mysql中则需要500M左右,SQLite的优势不言而喻。
使用SQLiteSpy打开数据库,数据库内容(局部):
项目内的“基于条件随机场的中文分词的实现(数据库+人机耦合版).py”,注释掉下图红框内容后运行即可。
分词结果
“人机耦合”提高分词准确度(0.04秒)
人工输入固定词语
分词结果