instalación de Linux cluster y puesta en marcha Hadoop3.1.2 (4) - JDK1.8 instalación y hadoop3.1.2

Capítulo 5: Instalar JDK1.8 y hadoop3.1.2

5.1 crear una carpeta en el directorio / opt

(1) Crear un módulo en el directorio opt, carpeta / software

sudo mkdir module
sudo mkdir software

(2) modificar el módulo, el propietario de la carpeta del software cd

sudo chown zpark:zpark module/ software/

Aquí Insertar imagen Descripción

Instalar JDK 5.2

  1. Desinstalar el JDK existente
  2. (1) comprobar si el software de Java instalada:
 [zpark@hadoop104 opt]$ rpm -qa | grep java 

(2) si la versión instalada es inferior a 1.7, desinstale el JDK:

 [zpark@hadoop104 opt]$ sudo rpm -e 软件包

ruta de instalación (3) Ver JDK:

  [zpark@hadoop104 ~]$ which java
  1. MobaXterm instalación, con la herramienta MobaXterm JDK opt directorio en la carpeta del software, puede instalar todo Continuar
https://.mobatek.net/download.html
  1. Seleccionar y arrastrar jdk1.8 hadoop3.1.2: Aquí Insertar imagen Descripción
  2. directorio opt en el sistema Linux para ver si la importación fue exitosa paquete
[zpark@hadoop104 opt]$ cd software/
[zpark@hadoop104 software]$ ls 

` Aquí Insertar imagen Descripción
6. JDK en el directorio de descompresión / opt / módulo

[zpark@hadoop104 software]$ tar -zxvf jdk-8u181-linux-x64.tar.gz -C /opt/module
  1. variables de entorno Configuración de JDK
    (1) para obtener el camino de JDK
 [zpark@hadoop104 jdk1.8.0_181]$ pwd /opt/module/jdk1.8.0_181 	

(2) Abrir el archivo / etc / profile

[zpark@hadoop104 software]$ sudo vi /etc/profile

Añadir ruta JDK en el extremo perfil del archivo

#JAVA_HOME 
export JAVA_HOME=/opt/module/jdk1.8.0_181 
export PATH=$PATH:$JAVA_HOME/bin   	

(3) guardar y salir: WQ
(4) archivo después de que los cambios surtan efecto

[zpark@hadoop104 jdk1.8.0_181]$ source /etc/profile
  1. JDK está instalado con éxito la prueba
[zpark@hadoop104 jdk1.8.0_181]# java -version 
java version "1.8.0_181"

Nota: Reiniciar (si no puede java -version reinicio)

[zpark@hadoop104 jdk1.8.0_181]$ sync 
[zpark@hadoop104 jdk1.8.0_181]$ sudo reboot

5.3 instalar Hadoop

Hadoop Descargar:

https://archive.apache.org/dist/hadoop/common/hadoop-3.1.2/

Con la herramienta MobaXterm opt-hadoop 3.1.2.tar.gz en la carpeta de software de directorio, el paquete de instalación en el camino Hadoop

 [zpark@hadoop104 ~]$ cd /opt/software/

Archivo para extraer la instalación / opt / módulo de abajo

[zpark@hadoop104 software]$ tar -zxvf hadoop-3.1.2.tar.gz -C /opt/module/

Compruebe si el éxito de descompresión

 [zpark@hadoop104 software]$ ls /opt/module/ hadoop-3.1.2

variable de entorno Hadoop añadido a
(1) obtener la ruta de instalación Hadoop

 [zpark@hadoop104 hadoop-3.1.2]$ pwd /opt/module/hadoop-3.1.2 	

(2) Abrir el archivo / etc / profile

 [zpark@hadoop104 hadoop-3.1.2]$ sudo vi /etc/profile 

Añadir final JDK de la ruta en el archivo de perfil:

##HADOOP_HOME 
export HADOOP_HOME=/opt/module/hadoop-3.1.2 
export PATH=$PATH:$HADOOP_HOME/bin 
export PATH=$PATH:$HADOOP_HOME/sbin 

(3) guardar y salir: WQ
(4) archivo después de que los cambios surtan efecto

 [zpark@hadoop104 hadoop-3.1.2]$ source /etc/profile

Probar si la instalación es correcta

[zpark@hadoop104 hadoop-3.1.2]$ hadoop version 
Hadoop 3.1.2

Reiniciar (si el comando Hadoop no puede reiniciar)

[zpark@hadoop104 hadoop-3.1.2]$ sync
[zpark@hadoop104 hadoop-3.1.2]$ sudo reboot

Hadoop estructura de directorios
1, ver la estructura de directorios hadoop

[zpark@hadoop104 hadoop-3.1.2]$ ll
总用量 52
drwxr-xr-x. 2 zhangyong zhangyong  4096 522 2017 bin
drwxr-xr-x. 3 zhangyong zhangyong  4096 522 2017 etc
drwxr-xr-x. 2 zhangyong zhangyong  4096 522 2017 include
drwxr-xr-x. 3 zhangyong zhangyong  4096 522 2017 lib
drwxr-xr-x. 2 zhangyong zhangyong  4096 522 2017 libexec
-rw-r--r--. 1 zhangyong zhangyong 15429 522 2017 LICENSE.txt
-rw-r--r--. 1 zhangyong zhangyong   101 522 2017 NOTICE.txt
-rw-r--r--. 1 zhangyong zhangyong  1366 522 2017 README.txt
drwxr-xr-x. 2 zhangyong zhangyong  4096 522 2017 sbin
drwxr-xr-x. 4 zhangyong zhangyong  4096 522 2017 share

2, directorios importantes
(1) bin: almacenar el guión de servicios de Hadoop relacionados entre sí (HDFS, hilados) operar
(2), etc directorio: directorio de archivos de configuración de Hadoop, almacenado el archivo de configuración de Hadoop
(3) lib: tienda para Hadoop biblioteca local (compresión de datos y funciones de descompresión)
(4) sbin directorio: iniciar o detener el almacenamiento de secuencia de comandos de servicios relacionados Hadoop
(5): cuota de directorio de almacenamiento de paquetes frasco dependientes, documentos y casos oficiales de Hadoop

Publicado 37 artículos originales · ganado elogios 7 · vistas 1191

Supongo que te gusta

Origin blog.csdn.net/zy13765287861/article/details/104573621
Recomendado
Clasificación