自然语言处理基础技术之依存句法分析实战

声明:转载请注明出处,谢谢:https://blog.csdn.net/m0_37306360/article/details/84645682
另外,更多实时更新的个人学习笔记分享,请关注:
知乎:https://www.zhihu.com/people/yuquanle/columns
公众号:StudyForAI


Stanford CoreNLP依存句法分析(dependency parse)

安装:pip install stanfordcorenlp

国内源安装:pip install stanfordcorenlp -i https://pypi.tuna.tsinghua.edu.cn/simple

from stanfordcorenlp import StanfordCoreNLP

使用stanfordcorenlp进行依存句法分析

先下载模型,下载地址:https://nlp.stanford.edu/software/corenlp-backup-download.html

对中文进行依存句法分析

zh_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27', lang='zh')
s_zh = '我爱自然语言处理技术!'
dep_zh = zh_model.dependency_parse(s_zh)
print(dep_zh)
[('ROOT', 0, 4), ('nsubj', 4, 1), ('advmod', 4, 2), ('nsubj', 4, 3), ('dobj', 4, 5), ('punct', 4, 6)]

对英文进行依存句法分析

eng_model = StanfordCoreNLP(r'stanford-corenlp-full-2018-02-27')
s_eng = 'I love natural language processing technology!'
dep_eng = eng_model.dependency_parse(s_eng)
print(dep_eng)
[('ROOT', 0, 2), ('nsubj', 2, 1), ('amod', 6, 3), ('compound', 6, 4), ('compound', 6, 5), ('dobj', 2, 6), ('punct', 2, 7)]

Hanlp依存句法分析

安装:pip install pyhanlp

国内源安装:pip install pyhanlp -i https://pypi.tuna.tsinghua.edu.cn/simple

from pyhanlp import *
s_zh = '我爱自然语言处理技术!'
dep_zh = HanLP.parseDependency(s_zh)
print(dep_zh)
1	我	我	r	r	_	2	主谓关系	_	_
2	爱	爱	v	v	_	0	核心关系	_	_
3	自然语言处理	自然语言处理	v	v	_	4	定中关系	_	_
4	技术	技术	n	n	_	2	动宾关系	_	_
5	!	!	wp	w	_	2	标点符号	_	_

代码已上传github :https://github.com/yuquanle/StudyForNLP/blob/master/NLPbasic/Dependency.ipynb

猜你喜欢

转载自blog.csdn.net/m0_37306360/article/details/84645682