1. Descarga el archivo espejo
docker pull elasticsearch:7.4.2
Descarga la interfaz visual, la versión debe ser la misma que la de elasticsearch
docker pull kibana:7.4.2
2. Crea una columna real
mkdir -p /usr/local/elasticsearch/config
mkdir -p /usr/local/elasticsearch/data
echo "http.host: 0.0.0.0">>/usr/local/elasticsearch/config/elasticsearch.yml
docker run -itd --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms64m -Xmx128m" -v /usr/local/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /usr/local/elasticsearch/data:/usr/share/elasticsearch/data -v /usr/local/elasticsearch/plugins:/usr/share/elasticsearch/plugins elasticsearch:7.4.2
Atención especial:
-e ES_JAVA_OPTS = "- Xms64m -Xmx128m" \ En el entorno de prueba, configure la memoria inicial y la memoria máxima de ES; de lo contrario, hará que el ES sea demasiado grande.
Descubriremos que elasticsearch todavía no es accesible. Abra el registro de inicio para ver que el directorio asignado no tiene permisos,
por lo que debemos agregar permisos a todas las carpetas en / usr / share / elasticsearch
chmod 777 -R /usr/local/elasticsearch/
Inicie el contenedor de elasticsearch de nuevo
docker start elasticsearch
3. El navegador puede acceder al puerto 9200. Si el firewall no está cerrado, ciérrelo o abra el puerto 9200.
4. Instale la interfaz visual kibana, primero copie kibana.yml en la ventana acoplable al directorio / usr / local / kibana / conf
Luego ejecuta el siguiente comando
docker run --name kibana -v /usr/local/kibana/conf:/usr/share/kibana/config -e ELASTICSEARCH_HOSTS=http://81.68.112.20:9200 -p 5601:5601 -itd kibana:7.4.2
Aquí ELASTICSEARCH_HOSTS = http: //81.68.112.20: 9200 se reemplaza con su propia dirección de host para
modificar la información de configuración en kibana.yml
修改elasticsearch.hosts的地址, 改成es的ip
server.name: kibana
server.host: “0”
elasticsearch.hosts: [ “http://192.168.56.10:9200” ]
xpack.monitoring.ui.container.elasticsearch.enabled: true
Después de modificar el archivo de configuración, reinicie el servicio kibana de Docker para acceder a kibana
5. Instale el
tokenizador ik. Un tokenizador (tokenizador de palabras) recibe un flujo de caracteres, lo divide en tokens independientes (elementos de palabra, generalmente palabras independientes) y luego genera el flujo de tokens.
Por ejemplo, cuando el tokenizador de espacio en blanco encuentra un carácter en blanco para dividir el texto, dividirá el texto "Zorro marrón rápido" en [Zorro marrón rápido]
El tokenizador (segmentador de palabras) también es responsable de registrar el orden o la posición de cada término (términos) (utilizado para frases de frases y consultas de vecinos de palabras de proximidad de palabras), y
Las compensaciones de caracteres (compensaciones de caracteres) del inicio y el final de la palabra original representada por término (utilizado para resaltar el contenido de búsqueda).
Elasticsearch proporciona muchos tokenizadores integrados, que se pueden usar para crear analizadores personalizados (tokenizadores personalizados)
Nota: El elasticsearch-plugin.install xxx.zip predeterminado no se puede utilizar para la instalación automática.
https://github.com/medcl/elasticsearch-analysis-ik/releases descargue la versión correspondiente a es
Cree un directorio ik en / usr / local / elasticsearch
mkdir /usr/local/elasticsearch/ik
Cargue el elasticsearch-analysis-ik-7.4.2.zip descargado localmente en el directorio ik y descomprímalo.
docker exec -it elasticsearch bash
cd /usr/share/elasticsearch/bin
elasticsearch-plugi
elasticsearch-plugi list
Observe si el resultado de la ejecución de elasticsearch-plugi list es ik