Este es el día 14 de mi participación en el Desafío de actualización de agosto. Para obtener detalles del evento, consulte: Desafío de actualización de agosto
texto
Paso 1: Crea un usuario normal
Nota: ES no puede ser iniciado por el usuario root y debe ser instalado e iniciado por un usuario normal.
Aquí usamos el usuario hadoop para instalar nuestro servicio es
Paso 2: Descargue y cargue el paquete comprimido, luego descomprímalo
Descargue y cargue el paquete de instalación de es en el servidor /opt/bigdata/soft node01 del servidor node01 Utilice el usuario es para ejecutar los siguientes comandos
[hadoop@node01 ~]$ cd /opt/bigdata/soft/
[hadoop@node01 soft]$ wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.7.0.tar.gz
[hadoop@node01 soft]$ tar -zxf elasticsearch-6.7.0.tar.gz -C /opt/bigdata/install/
复制代码
Paso 3: Modificar el archivo de configuración
修改 elasticsearch.yml
El servidor node01 usa el usuario hadoop para modificar el archivo de configuración
cd /opt/bigdata/install/elasticsearch-6.7.0/config/
mkdir -p /opt/bigdata/install/elasticsearch-6.7.0/logs/
mkdir -p /opt/bigdata/install/elasticsearch-6.7.0/datas
vim elasticsearch.yml
复制代码
cluster.name: myes
node.name: node01
path.data: /opt/bigdata/install/elasticsearch-6.7.0/datas
path.logs: /opt/bigdata/install/elasticsearch-6.7.0/logs
network.host: 192.168.52.100
http.port: 9200
discovery.zen.ping.unicast.hosts: ["node01", "node02", "node03"]
bootstrap.system_call_filter: false
bootstrap.memory_lock: false
http.cors.enabled: true
http.cors.allow-origin: "*"
复制代码
Modificar jvm.opción
Modifique el archivo de configuración jvm.option, ajuste el tamaño de la memoria del montón jvm node01 use el usuario es para ejecutar los siguientes comandos para ajustar el tamaño de la memoria del montón jvm, cada persona ajusta según el tamaño de la memoria de su propio servidor
cd /opt/bigdata/install/elasticsearch-6.7.0/config
vim jvm.options
-Xms2g
-Xmx2g
复制代码
Paso 4: Distribuya el paquete de instalación a otros servidores
node01 usa el usuario es para distribuir el paquete de instalación a otros servidores
cd /opt/bigdata/install/
scp -r elasticsearch-6.7.0/ node02:$PWD
scp -r elasticsearch-6.7.0/ node03:$PWD
复制代码
El quinto paso: node02 y node03 modifican el archivo de configuración es
Node02 y node03 también necesitan modificar el archivo de configuración es node02 usa el usuario hadoop para ejecutar el siguiente comando para modificar el archivo de configuración es
cd /opt/bigdata/install/elasticsearch-6.7.0/config/
vim elasticsearch.yml
复制代码
cluster.name: myes
node.name: node02
path.data: /opt/bigdata/install/elasticsearch-6.7.0/datas
path.logs: /opt/bigdata/install/elasticsearch-6.7.0/logs
network.host: 192.168.52.110
http.port: 9200
discovery.zen.ping.unicast.hosts: ["node01", "node02", "node03"]
bootstrap.system_call_filter: false
bootstrap.memory_lock: false
http.cors.enabled: true
http.cors.allow-origin: "*"
复制代码
node03 usa hadoop
cd /opt/bigdata/install/elasticsearch-6.7.0/config/
vim elasticsearch.yml
复制代码
cluster.name: myes
node.name: node03
path.data: /opt/bigdata/install/elasticsearch-6.7.0/datas
path.logs: /opt/bigdata/install/elasticsearch-6.7.0/logs
network.host: 192.168.52.120
http.port: 9200
discovery.zen.ping.unicast.hosts: ["node01", "node02", "node03"]
bootstrap.system_call_filter: false
bootstrap.memory_lock: false
http.cors.enabled: true
http.cors.allow-origin: "*"
复制代码
Paso 6: Modifique la configuración del sistema para resolver el problema al inicio
Debido a que los usuarios comunes ahora están acostumbrados a instalar el servicio es, y el servicio es tiene más requisitos de recursos en el servidor, incluido el tamaño de la memoria, la cantidad de subprocesos, etc. Entonces, necesitamos desatar las restricciones de recursos para los usuarios comunes.
Resuelva el problema de inicio 1: la cantidad máxima de archivos abiertos para usuarios comunes es limitada
Descripción del mensaje de error del problema:
max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536]
复制代码
ES necesita crear una gran cantidad de archivos de índice y abrir una gran cantidad de archivos del sistema, por lo que debemos elevar el límite de la cantidad máxima de archivos abiertos en el sistema Linux, de lo contrario, ES generará un error en tres máquinas. es usuario para ejecutar el siguiente comando para desbloquear el archivo Restricciones de datos
sudo vi /etc/security/limits.conf
* soft nofile 65536
* hard nofile 131072
* soft nproc 2048
* hard nproc 4096
复制代码
Resuelva el problema de inicio 2: limite la cantidad de subprocesos de inicio para usuarios comunes
Tres máquinas ejecutan los siguientes comandos para abrir el número máximo de archivos
sudo vi /etc/sysctl.conf
vm.max_map_count=655360
fs.file-max=655360
复制代码
Ejecuta el siguiente comando para que surta efecto
sudo sysctl -p
复制代码
Nota: Después de modificar los dos problemas anteriores, asegúrese de volver a conectarse a Linux para que surta efecto. Cierre la herramienta secureCRT o XShell y luego vuelva a abrir la herramienta para conectarse a Linux
Después de volver a conectar, ejecute el siguiente comando, el resultado está listo para iniciar ES
[hadoop@node01 ~]$ ulimit -Hn
131072
[hadoop@node01 ~]$ ulimit -Sn
65536
[hadoop@node01 ~]$ ulimit -Hu
4096
[hadoop@node01 ~]$ ulimit -Su
4096
复制代码
Paso 7: Inicie el servicio ES
Las tres máquinas usan el usuario hadoop para ejecutar el siguiente comando para iniciar el servicio es
nohup /opt/bigdata/install/elasticsearch-6.7.0/bin/elasticsearch 2>&1 &
复制代码
Después de que el inicio sea exitoso, jsp puede ver el proceso de servicio de es y acceder a la página
Puede ver cierta información después de que se inicia es
Nota: Si algún servicio de la máquina no se inicia, vaya a la ruta /opt/bigdata/install/elasticsearch-6.7.0/logs de la máquina para ver el registro de errores.