directorio
1, el servidor de listas
Referencia: Obtención de datos de gran tamaño (a) la configuración del entorno, la configuración VMware15 + CentOS8.1
2, entorno de la instalación de JDK
Referencia: entrada de datos de gran tamaño (dos) Centos8, configuración JDK
3, el entorno de red para preparar
Referencia: gran entrada de datos (c) Configuración de red CentOS
4, instalación de clúster
(1) Preparación 3 clientes
Antes de la clonación configurado máquina virtual,
clonaron dos veces sido:
los tres anfitriones están abiertas, utilice el comando ip cambia señalar aquí, si configura el IP con ip addr
el descubrimiento vista ip no cambió, es necesario reiniciar.
#仅需要对克隆的主机进行修改
#修改ip
vi /etc/sysconfig/network-scripts/ifcfg-ens33
#修改主机名
hostnamectl set-hostname node2
hostnamectl set-hostname node3
Configuración de host, de manera que entre los anfitriones para el acceso por el anfitrión, en lugar de acceso IP
[root@node1 ~]# vi /etc/hosts
配置主机host
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.100.21 node1
192.168.100.22 node2
192.168.100.23 node3
configuración de sincronización:
scp -r /etc/hosts root@node2:/etc/
scp -r /etc/hosts root@node3:/etc/
Una prueba de ping:
La configuración anterior en el momento de la sincronización, ni requiere una contraseña de acceso, no hay necesidad de configurar ssh densa libre de inicio de sesión, cada host debe estar configurado:
ssh-keygen -t rsa
ssh-copy-id node1
ssh-copy-id node2
ssh-copy-id node3
Descargar archivo Hadoop: https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
referencia
Hadoop (dos) CentOS7.5 acumulación Hadoop2.7.6 totalmente distribuida cúmulo
de instalación CentOS7.5 de Linux y la clonación