es personaliza uma extensão simples do analisador de quebra de palavras no índice

es personaliza uma extensão simples do analisador de quebra de palavras no índice


PUT index1
{   "settings": {     "analysis": {       "analyzer": {         "ik_max_word_expand": {           "type": "custom",           "char_filter": "html_strip",           "tokenizer": "ik_max_word"         }       }     }   } }











 

Personalize um analisador de tokenizador simples no índice

As etapas acima apresentam a composição do Analyzer e a implementação padrão fornecida pelo ElasticSearch para cada parte.Ao combinar essas implementações padrão, podemos construir nosso próprio Analyzer.

Um Analyzer personalizado deve ser associado a um índice e sua sintaxe é a seguinte:

PUT nome do índice

{

"configurações": {

    "análise": {
 

      "analisador": {
 

        "Nome do tokenizador personalizado":{
 

              A implementação interna específica do tokenizador personalizado
 

        }
 

      }
 

    }
 

  }
}

Realize seu próprio tokenizer combinando html strip (filtro de caracteres), ik_max_word (tokernizer)

GET index1


POST /index1/_analyze
{   "analyzer": "ik_max_word_expand",   "text": "Somos chineses<html>2</html>

}

 

 

おすすめ

転載: blog.csdn.net/wdd668/article/details/129947912