Centos 7 montado Kibana, ik separador de palabras chino y Elasticsearch cúmulo Tutorial

breve introducción

Elasticsearch es un servidor de búsqueda basado en Lucene. Proporciona un distribuidas capacidades multi-usuario de motor de búsqueda de texto completo, basados en REST
interfaz web. Elasticsearch es un desarrollo del lenguaje Java, y como código abierto bajo los términos de la licencia Apache publicados, es un motor de búsqueda de clase empresarial popular. Elasticsearch para la computación en la nube, es posible lograr una búsqueda en tiempo real, estable, fiable, rápido y fácil de instalar. El cliente oficial en el Java, .NET (C #), PHP, Python, el Apache
maravilloso, Ruby y muchos otros idiomas están disponibles. De acuerdo con DB-Motores clasificaciones muestran, Elasticsearch motor de búsqueda empresarial es el más popular, seguido por el Apache
Solr, también basada en Lucene.

Dirección oficial:

https://www.elastic.co/cn/elasticsearch

Bueno, vamos directamente a la instalación de temas, centos de tutorial de bienvenida para ver mi pelo artículo anterior, no estoy aquí para explicar demasiado, y empezamos hoy después de mi tutorial

1, mediante la instalación de ventana acoplable elasticsearch

docker pull elasticsearch:7.3.2

1.1 vistazo a la tracción hacia abajo a través elasticsearch

Aquí Insertar imagen Descripción

1.2, ejecute el comando para iniciar elasticsearch

docker run -d --name es -p 9200:9200 -p 9300:9300 -p 5601:5601 -e "ES_JAVA_OPTS=-Xms512m -Xmx512m" -e "discovery.type=single-node" elasticsearch:7.3.2

Aquí Insertar imagen Descripción
Aquí Insertar imagen Descripción

1.3 navegador de acceso para verificar la instalación, esta es mi dirección orígenes: http://192.168.177.132:9200/

Aquí Insertar imagen Descripción

Bueno, ver los datos en el navegador, se muestra Elasticsearch instalación exitosa.

Volvamos a instalar otra herramienta que Kibana herramientas para gestionar elasticsearch

2, ventana acoplable montado Kibana interfaz visual

2.1 reflejo tirón

docker pull kibana:7.3.2

2.2, el comando para iniciar Kibana

docker run -d --name kb -e ELASTICSEARCH_HOSTS=http:127.0.0.1/9200 --network=container:es kibana:7.3.2

Después de ejecutar el comando anterior y ya no es el mismo mapa, y aquí tiene que esperar un minuto más o menos, para ver el efecto en el navegador

2.3 navegador si la prueba se ha realizado correctamente

http://192.168.177.132:5601/app/kibana

Aquí Insertar imagen Descripción

2.4 En primer lugar, vamos a añadir un documento

Aquí Insertar imagen Descripción

2.5 Visualización de los datos agregados por la consulta

Aquí Insertar imagen Descripción

2.6 comandos utilizados frecuentemente

#创建指定文档
PUT /demo/_doc/2
{
  "name":"Somnus_小凯",
  "job":"Java研发",
  "age":25
}

#查询指定ID的文档
GET /demo/_doc/2
#查询指定索引下的为所有文档
GET /demo/_search
#精确匹配查询
GET /demo/_search?q=age:25

#查询区间
GET /demo/_search?q=age[24 TO 26]

3, ventana acoplable lograr elasticsearch imagen de generación recipiente ik y chino segmentador

3.1, el primero en entrar en el recipiente

docker exec -it es bash

Aquí Insertar imagen Descripción

3.2 Después de introducir las necesidades de contenedores para instalar wget para descargar el plug-ik palabra

yum  -y install wget

Después de la instalación se haya completado la descarga junto 3.3 plug-ik

wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.3.2/elasticsearch-analysis-ik-7.3.2.zip

3.4 Crear directorio directorio para descomprimir el archivo descargado en el directorio de plugins puede ser

unzip  -d ./plugins/ik/ elasticsearch-analysis-ik-7.3.2.zip

Hasta el momento la instalación ik separador de palabras se ha completado, la siguiente es nuestro enfoque hoy

4, Elasticsearch configurar mi lado del entorno de configuración de cluster así

Dado que queremos construir racimos con una sugerencia extraña aquí, he usado tres máquinas aquí, un amigo le por qué el uso de tres, dos no pregunte aquí? El problema creo que todavía pide Baidu gran Dios ahora.

192.168.177.132 es-node01
192.168.177.133 es-node02
192.168.177.134 es-node03

4.1 primero tiene que crear datos y los archivos de configuración en las tres máquinas

[root@localhost somnus]# tree
.
└── es  #创建es目录
    ├── config #创建es配置相关目录
    │   └── elasticsearch.yml #创建es配置文件
    └── data #创建es数据文件目录

se crea 4,2 directorio, el siguiente elasticsearch.yml configuración

Aquí Insertar imagen Descripción

En las dos máquinas restantes también lo hacen la información de configuración apropiada, esto es lo que no hago demasiada descripción, la operación anterior se ha completado continuar con el grupo elasticsearch instalación

4.3 configuración primer nodo

docker run -d --name es -p 9200:9200 -p 9300:9300 -p 5601:5601 -e "ES_JAVA_OPTS=-Xms512m -Xmx512m" -v /home/somnus/es/data:/usr/share/elasticsearch -v /home/somnus/es/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml --privileged=true elasticsearch:7.3.2
Los otros dos nodos es el mismo aquí, donde podemos ejecutar el script Xshell cantidades, se puede volver a empezar relacionados con un guión

visita de estado del clúster después de dirección de inicio 4.4 facie: http://192.168.177.134:9200/_cat/nodes

Aquí Insertar imagen Descripción

4.5 cúmulo elasticsearch despliegue

Modificar el valor de vm.max_map_count

operación elasticsearch uso estibador, el sistema de acogida exige valor m.max_map_count no sea inferior a 262 144, se ejecuta o espejo elasticsearch.

Editar archivo "/etc/sysctl.conf", que se suman una línea:

vm.max_map_count=262144

Una vez guardado, ejecute "sysctl -p" Vamos configuración tenga efecto

4.6 Por Kibana, crear documentos, agregar a los datos de la consulta sobre la base de Identificación

Aquí Insertar imagen Descripción

4.7 En este punto, el entorno de clúster ha sido estructuras completadas:

4.7.1 El primer nodo de acceso: 192.168.177.132

Aquí Insertar imagen Descripción

4.7.2 acceso el segundo nodo: 192.168.177.133Aquí Insertar imagen Descripción

4.7.3 acceso el tercer nodo: 192.168.177.134Aquí Insertar imagen Descripción

Aquí Insertar imagen Descripción

Hasta ahora cúmulo Elasticsearch e IK separador de palabras chino, Kibana se ha instalado más, muchas gracias por tomarse el tiempo de su apretada agenda para leer, si este artículo útil, dio la bienvenida al enfoque de alabanza, a compartir sus amigos a su alrededor. Su aliento es la fuerza más grande para mí.

Publicado 71 artículos originales · ganado elogios 178 · Vistas de 600.000 +

Supongo que te gusta

Origin blog.csdn.net/u012486840/article/details/105211861
Recomendado
Clasificación