Docker instala a ferramenta de visualização elasticsearch kibana, ik tokenizer

1. Baixe o arquivo espelho

docker pull elasticsearch:7.4.2

Baixe a interface visual, a versão deve ser a mesma do elasticsearch

docker pull kibana:7.4.2

2. Crie uma coluna real

mkdir -p /usr/local/elasticsearch/config
mkdir -p /usr/local/elasticsearch/data
echo "http.host: 0.0.0.0">>/usr/local/elasticsearch/config/elasticsearch.yml
docker run -itd --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms64m -Xmx128m" -v /usr/local/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /usr/local/elasticsearch/data:/usr/share/elasticsearch/data -v /usr/local/elasticsearch/plugins:/usr/share/elasticsearch/plugins elasticsearch:7.4.2

Atenção especial:
-e ES_JAVA_OPTS = "- Xms64m -Xmx128m" \ No ambiente de teste, defina a memória inicial e a memória máxima do ES, caso contrário, o ES será muito grande para iniciar.

Descobriremos que elasticsearch ainda não está acessível. Abra o log de inicialização para ver se o diretório mapeado não tem permissões,
Insira a descrição da imagem aqui
então precisamos adicionar permissões a todas as pastas em / usr / share / elasticsearch

chmod 777 -R /usr/local/elasticsearch/

Inicie o contêiner elasticsearch novamente

docker start elasticsearch

3. O navegador pode acessar a porta 9200. Se o firewall não estiver fechado, feche-o ou abra a porta 9200.
Insira a descrição da imagem aqui
4. Instale a interface visual kibana, primeiro copie kibana.yml no docker para o diretório / usr / local / kibana / conf
Em seguida, execute o seguinte comando

docker run --name kibana -v /usr/local/kibana/conf:/usr/share/kibana/config  -e ELASTICSEARCH_HOSTS=http://81.68.112.20:9200 -p 5601:5601 -itd kibana:7.4.2

Aqui ELASTICSEARCH_HOSTS = http: //81.68.112.20: 9200 é substituído por seu próprio endereço de host para
modificar as informações de configuração em kibana.yml

修改elasticsearch.hosts的地址, 改成es的ip
server.name: kibana
server.host:0”
elasticsearch.hosts: [ “http://192.168.56.10:9200]
xpack.monitoring.ui.container.elasticsearch.enabled: true

Depois de modificar o arquivo de configuração, reinicie o serviço kibana do docker para acessar o kibana

5. Instale o
tokenizer ik. Um tokenizer (tokenizador de palavras) recebe um fluxo de caracteres, divide-o em tokens independentes (elementos de palavras, geralmente palavras independentes) e, em seguida, gera o fluxo de tokens

Por exemplo, quando o tokenizer witespace encontra um caractere em branco para dividir o texto, ele divide o texto "Raposa marrom rápida" em [Raposa marrom rápida]

O tokenizer (segmentador de palavras) também é responsável por registrar a ordem ou posição de cada termo (termos) (usado para frases de frases e consultas de palavra de proximidade de palavra), e

Os deslocamentos de caracteres (deslocamentos de caracteres) do início e do fim da palavra original representada por termo (usado para destacar o conteúdo da pesquisa).

Elasticsearch fornece muitos tokenizadores integrados, que podem ser usados ​​para construir analisadores personalizados (tokenizadores personalizados)

Nota: O elasticsearch-plugin.install xxx.zip padrão não pode ser usado para instalação automática.

https://github.com/medcl/elasticsearch-analysis-ik/releases baixe a versão correspondente a es
Insira a descrição da imagem aqui

Crie um diretório ik em / usr / local / elasticsearch

mkdir /usr/local/elasticsearch/ik

Faça upload do elasticsearch-analysis-ik-7.4.2.zip baixado localmente para o diretório ik e descompacte-o.
Insira a descrição da imagem aqui

docker exec -it elasticsearch bash
cd /usr/share/elasticsearch/bin
elasticsearch-plugi
elasticsearch-plugi list 

Observe se o resultado da execução da lista elasticsearch-plugi é ik
Insira a descrição da imagem aqui

Acho que você gosta

Origin blog.csdn.net/u014496893/article/details/113769456
Recomendado
Clasificación