1. Baixe o arquivo espelho
docker pull elasticsearch:7.4.2
Baixe a interface visual, a versão deve ser a mesma do elasticsearch
docker pull kibana:7.4.2
2. Crie uma coluna real
mkdir -p /usr/local/elasticsearch/config
mkdir -p /usr/local/elasticsearch/data
echo "http.host: 0.0.0.0">>/usr/local/elasticsearch/config/elasticsearch.yml
docker run -itd --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms64m -Xmx128m" -v /usr/local/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /usr/local/elasticsearch/data:/usr/share/elasticsearch/data -v /usr/local/elasticsearch/plugins:/usr/share/elasticsearch/plugins elasticsearch:7.4.2
Atenção especial:
-e ES_JAVA_OPTS = "- Xms64m -Xmx128m" \ No ambiente de teste, defina a memória inicial e a memória máxima do ES, caso contrário, o ES será muito grande para iniciar.
Descobriremos que elasticsearch ainda não está acessível. Abra o log de inicialização para ver se o diretório mapeado não tem permissões,
então precisamos adicionar permissões a todas as pastas em / usr / share / elasticsearch
chmod 777 -R /usr/local/elasticsearch/
Inicie o contêiner elasticsearch novamente
docker start elasticsearch
3. O navegador pode acessar a porta 9200. Se o firewall não estiver fechado, feche-o ou abra a porta 9200.
4. Instale a interface visual kibana, primeiro copie kibana.yml no docker para o diretório / usr / local / kibana / conf
Em seguida, execute o seguinte comando
docker run --name kibana -v /usr/local/kibana/conf:/usr/share/kibana/config -e ELASTICSEARCH_HOSTS=http://81.68.112.20:9200 -p 5601:5601 -itd kibana:7.4.2
Aqui ELASTICSEARCH_HOSTS = http: //81.68.112.20: 9200 é substituído por seu próprio endereço de host para
modificar as informações de configuração em kibana.yml
修改elasticsearch.hosts的地址, 改成es的ip
server.name: kibana
server.host: “0”
elasticsearch.hosts: [ “http://192.168.56.10:9200” ]
xpack.monitoring.ui.container.elasticsearch.enabled: true
Depois de modificar o arquivo de configuração, reinicie o serviço kibana do docker para acessar o kibana
5. Instale o
tokenizer ik. Um tokenizer (tokenizador de palavras) recebe um fluxo de caracteres, divide-o em tokens independentes (elementos de palavras, geralmente palavras independentes) e, em seguida, gera o fluxo de tokens
Por exemplo, quando o tokenizer witespace encontra um caractere em branco para dividir o texto, ele divide o texto "Raposa marrom rápida" em [Raposa marrom rápida]
O tokenizer (segmentador de palavras) também é responsável por registrar a ordem ou posição de cada termo (termos) (usado para frases de frases e consultas de palavra de proximidade de palavra), e
Os deslocamentos de caracteres (deslocamentos de caracteres) do início e do fim da palavra original representada por termo (usado para destacar o conteúdo da pesquisa).
Elasticsearch fornece muitos tokenizadores integrados, que podem ser usados para construir analisadores personalizados (tokenizadores personalizados)
Nota: O elasticsearch-plugin.install xxx.zip padrão não pode ser usado para instalação automática.
https://github.com/medcl/elasticsearch-analysis-ik/releases baixe a versão correspondente a es
Crie um diretório ik em / usr / local / elasticsearch
mkdir /usr/local/elasticsearch/ik
Faça upload do elasticsearch-analysis-ik-7.4.2.zip baixado localmente para o diretório ik e descompacte-o.
docker exec -it elasticsearch bash
cd /usr/share/elasticsearch/bin
elasticsearch-plugi
elasticsearch-plugi list
Observe se o resultado da execução da lista elasticsearch-plugi é ik