es personaliza uma extensão simples do analisador de quebra de palavras no índice
PUT index1
{ "settings": { "analysis": { "analyzer": { "ik_max_word_expand": { "type": "custom", "char_filter": "html_strip", "tokenizer": "ik_max_word" } } } } }
Personalize um analisador de tokenizador simples no índice
As etapas acima apresentam a composição do Analyzer e a implementação padrão fornecida pelo ElasticSearch para cada parte.Ao combinar essas implementações padrão, podemos construir nosso próprio Analyzer.
Um Analyzer personalizado deve ser associado a um índice e sua sintaxe é a seguinte:
PUT nome do índice
{
"configurações": {
"análise": {
"analisador": {
"Nome do tokenizador personalizado":{
A implementação interna específica do tokenizador personalizado
}
}
}
}
}
Realize seu próprio tokenizer combinando html strip (filtro de caracteres), ik_max_word (tokernizer)
GET index1
POST /index1/_analyze
{ "analyzer": "ik_max_word_expand", "text": "Somos chineses<html>2</html>
}