題名
-
アプリケーションの範囲とシナリオ
自然言語処理アプリケーションでは、単語のセグメンテーション、品詞分析、構文分析、英語認識などのアプリケーションがよく使用されます。スタンフォードNLPは、中国のサポートでは悪くありません。アプリケーションの実現可能性をより迅速に検証します。 -
環境の構成と構築プロセスstanford-corenlp-full-2017-06-09.zipを
ダウンロードしてから、システムで解凍し、パッケージでサポートされている中国語モデルstanford-chinese-corenlp-2017-06-09-models.jarをダウンロードします。 、名前は対応している必要があることに注意してください。対応していないと、バグが発生しやすくなります。次の図に示すように、モデルの解凍されたファイルを最初のパッケージの解凍されたファイルに配置します。上の図に示すように、新しい起動スクリプトを作成します。中国語でモデルファイルを指定することに注意してください。
-
開始効果
-
言語サポート
ここから始めましょう。友達に紹介しましょう。
class service_ana(object):
"""
对斯坦福服务的包装a
"""
def __init__(self):
pass
#需要提前启动服务
self.nlp = StanfordCoreNLP('http://localhost:9000')
def get_res(self, text):
"""参数是多个句子的列表(分词和不分词都行), 返回各个句子的分析结果"""
output = self.nlp.annotate(text, properties={
'annotators': 'tokenize,ssplit,pos,ner,depparse,parse',
'outputFormat': 'json'
})
print(output['sentences'][0]['parse'])
print(output['sentences'][0]['basicDependencies'])
print(output['sentences'][0]['enhancedDependencies'])
print(output['sentences'][0]['enhancedPlusPlusDependencies'])
print(output['sentences'][0]['tokens'])
- 結果の分析と抽出:
{"intent_res": "リンゴが好きですか"、 "zhu_yu": "あなた"、 "bin_yu": "apples"、 "wei_yu": "like"、 "intent_index": "リンゴが好きですか「私はそれが好きです」}
**ヒント:**この文の構成要素の分析方法により、意図の分析は、比較的集中したきめの細かい意図に適しています。分類によって、より粗い意図を実現できます。さらに、構文解析に関しては、長い文速度が遅いです。