entorno de entorno de despliegue de datos grandes capítulo --Hadoop pseudo-distribuido para construir

entorno de entorno de despliegue de datos grandes capítulo --Hadoop pseudo-distribuido para construir

En primer lugar, la fase preparatoria

  • 1, Hadoop-xxxtar.gz (versión pero aquí libremente recomiendan el uso de la versión 2.7.x, después de todo, esta es la versión estable, después de enfrentarse a algunas dependencias entre los otros componentes también son mejores)
    Descargar el sitio web oficial https: / /hadoop.apache.org/old/releases.html
    clic aquí para descargar binaria Aquí Insertar imagen Descripción
    Aquí Insertar imagen Descripción
    elección fuente de Tsinghua descarga, por lo que la velocidad de descarga será más rápida.
  • 2, JDK-xxxxx-linux- x64.tar.gz (JDK de Java archivo)
    bajar la dirección del sitio web oficial: https: //www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
    Aquí Insertar imagen Descripción

En segundo lugar, la etapa de carga de archivos
Prólogo: El lector por defecto instalado dos de las siguientes herramientas:
Aquí Insertar imagen Descripción

  • 1, utilizando herramientas conectadas máquina virtual Xshell Ubuntu
    (1) Vmvare en máquina virtual Ubuntu para abrir el primer paso
    (2) utilizando el comando ifconfig para ver la dirección IP de la máquina virtual
    Aquí Insertar imagen Descripción
    Figura I puede conocer la dirección IP de esta máquina virtual que es 192.168. el primero registrado 96.185 IP
    (3) aplicación Xshell abierta, haga clic en Nueva conexión
    Aquí Insertar imagen Descripción
    (4) de relleno en la dirección IP que acaba de grabar en el host
    Aquí Insertar imagen Descripción
    (5) haga clic en la autenticación de usuarios, configurar virtual nombre de usuario y la contraseña de la máquina virtual
    Aquí Insertar imagen Descripción
    ( 6) Haga clic para abrir una conexión, sólo tienes que seleccionar la nueva conexión, y luego conectar la máquina virtual
    Aquí Insertar imagen Descripción
    Haga clic en Guardar conexión de clave pública
    Aquí Insertar imagen Descripción
    (7) aparece como se muestra en la imagen siguiente es una conexión exitosa (en este caso es posible que tengamos que preguntarse por qué el color con el autor no es lo mismo, no hay una relación, puede ajustar su propio color de fuente y fondo de la terminal)
    Aquí Insertar imagen Descripción
  • 2, descargar Xftp en hadoop de Windows y el paquete de instalación del JDK subido a la máquina virtual de Ubuntu
    (1) Haga clic en este botón verde Xftp Xshell
    Aquí Insertar imagen Descripción
    (2) para seleccionar los archivos correspondientes de arrastrar y soltar de Windows (cargar) para subir a la máquina virtual de Ubuntu en
    Aquí Insertar imagen Descripción
    (3) subido al retorno a los dos documentos en la vista sólo subir Xshell
    Aquí Insertar imagen Descripción

En tercer lugar, configure Hadoop

  • 1, la instalación y la configuración del JDK (porque hadoop utilizando Java como un desarrollo, por lo que la operación depende hadoop con el entorno Java, es esencial para instalar el JDK)
    (1) Nuevo directorio opt en el directorio inicial del usuario actual (nos referiremos a este directorio recién creado como el directorio de instalación de todos los componentes principales de datos)
    Aquí Insertar imagen Descripción
    (2) Extraiga el archivo en el JDK sólo el nuevo directorio opt
    Aquí Insertar imagen Descripción
    (3) usando cd ~ comando / opt para entrar sólo el nuevo directorio
    Aquí Insertar imagen Descripción
    (4) el uso "ln -s" comando para crear un enlace simbólico se acaba de extraer el archivo JDK
    Aquí Insertar imagen Descripción
    (5) usando vim ~ / .bashrc de comandos para introducir las variables de entorno Modificar usuario (puede ser un poco difícil si el primer contacto con el lector de comando vim para operar, cuidadosamente ver una captura de pantalla de la operación)
    Aquí Insertar imagen Descripción
    después de entrar en i teclado realiza cambios en el modo de edición de inserción (después de pulsar la esquina inferior izquierda aparecerá -INSERT- palabras para que pueda editar este archivo) Aquí Insertar imagen Descripción
    Aquí Insertar imagen Descripción
    Aquí Insertar imagen Descripción
    Aquí Insertar imagen Descripción
    (6) Guardar y salir en la fuente de entrada de línea de comandos ~ / .bashrc fuente de configuración de actualización por lo que sólo surte efecto
    Aquí Insertar imagen Descripción
    (7) entran en la prueba de comando java -version si la configuración de JDK
    Aquí Insertar imagen Descripción
  • 2, la instalación Hadoop y la configuración (la acumulación Hadoop tres modos [modo autónomo, el patrón pseudo-distribución, el modo de clúster] se lleva a cabo aquí para construir un patrón pseudo-distribución)
    (1) usando el alquitrán -zxvf hadoop-xxxtar.gz -C ~ / opt hadoop archivo para extraer el directorio opt
    Aquí Insertar imagen Descripción
    directorio opt (2) cd ~ / opt y luego procede a crear la conexión metal blando hadoop ln -s archivo de comandos
    Aquí Insertar imagen Descripción
    (3) vim ~ / .bashrc modificar las variables de entorno de usuario y luego editar las variables de entorno de java delanteros después de la adición se muestra en el contenido de la imagen
    Aquí Insertar imagen Descripción
    para guardar y volver salida a la interfaz de línea de comandos
    de configuración de origen (4) source ~ / .bashrc por lo que sólo la actualización tiene efecto
    Aquí Insertar imagen Descripción
    (5) conectado a la clave pública utilizando ssh-keygen -t rsa ssh generada en
    Aquí Insertar imagen Descripción
    (6) cat ~ / .ssh / id_rsa.pub >> ~ / .ssh / authorized_keys la clave pública generada acaba de escribir en el archivo especificado de entre configuración de ssh
    Aquí Insertar imagen Descripción
    (7) en el directorio de perfil hadoop
    Aquí Insertar imagen Descripción
    (8) editar vim hadoop-env después de entrar en el archivo .sh figura configurado para guardar y pulse salida
    Aquí Insertar imagen Descripción
    (9) para modificar el vim archivo de configuración de núcleo-site.xml estar dispuesto como sigue:
<configuration>
	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://localhost:9000</value>
	</property>
</configuration>

Aquí Insertar imagen Descripción
(10) vim archivo de configuración hdfs-site.xml en la información del archivo está configurado como sigue

<configuration>
	<property>
		<name>dfs.replication</name>
		<value>1</value>
	</property>
	<property>
		<name>dfs.namenode.name.dir</name>
		<value>/home/zh123/opt/hadoop/dfs/name</value>
	</property>
	<property>
		<name>dfs.namenode.data.dir</name>
		<value>/home/zh123/opt/hadoop/dfs/data</value>
	</property>
</configuration>

Aquí Insertar imagen Descripción
(11) archivo de configuración site.xml mapred, ya que este archivo no existe fue primero y luego salir por lo que necesitamos para conseguir una copia de este site.xml.template-mapred que contiene de su directorio original
: CP-mapred site.xml .template mapred-site.xml
continuación vim editar el archivo de información-site.xml mapred de la siguiente

<configuration>
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
</configuration>

Aquí Insertar imagen Descripción
(12) vim hilo site.xml información de configuración está configurado como sigue

<configuration>
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
</configuration>

Aquí Insertar imagen Descripción

hadoop-env.sh
núcleo-site.xml
hdfs-site.xml
mapred-site.xml
hilo site.xml
Aquí Insertar imagen Descripción

Por encima es la configuración pseudo-distribuido fue hadoop tenga que modificar el nombre del perfil

En cuarto lugar, se inicia hadoop

  • 1, el formato NameNode (nota que sólo la primera vez que se inicia !!! Hadoop solamente ejecutar este comando a formato NameNode)
    HDFS NameNode -format
    Aquí Insertar imagen Descripción
    Aquí Insertar imagen Descripción
    ver información como resultado del registro se disponga de medio de mensajes de error que el formato fue exitosa NameNode
  • 2, iniciar el servicio Hadoop
    para todos los servicios con el comando start-all.sh comenzar hadoop de
    Aquí Insertar imagen Descripción
    otro JPS Comando línea a la vista, siendo los procesos Java activos Aquí Insertar imagen Descripción
    usando hdfs información detallada comando hdfs dfsadmin -report puede ver el
    Aquí Insertar imagen Descripción
    punto de entorno Hadoop pseudo-distribuido tiene de terminar la construcción, el proceso de reconfiguración socio menor si hadoop encontró pregunta, por favor comentar a continuación, explorar! ! !
Publicado 27 artículos originales · ganado elogios 62 · Vistas a 10000 +

Supongo que te gusta

Origin blog.csdn.net/qq_42359956/article/details/102825140
Recomendado
Clasificación