impala instalación y despliegue

En primer lugar, instale el requisito previo

avance Cluster instalado hadoop, colmena.

SCP paquetes de instalación de colmenas necesitan ser instalado en todos los nodos impala, debido a la necesidad de impala referencia dependencias de la colmena.

Hadoop necesidades marco interfaz de acceso a programa de apoyo C, ver la siguiente figura, hay tan archivo si el camino para demostrar que soporta la interfaz C.

En segundo lugar, descargar el paquete de instalación, dependencias

Dado que el impala no proporcionar el paquete de alquitrán está instalado, sólo el paquete rpm. Por lo tanto, cuando el impala de montaje, paquetes rpm necesitan ser instalados. paquete rpm sólo ofrece la compañía Cloudera, así que ve el sitio web de la empresa cloudera para descargar el paquete rpm.

Pero otra pregunta, impala otro paquete paquete rpm rpm depende mucho, uno puede encontrar a cabo dependerá, sino también todo el paquete rpm puede ser descargado, hecho en nuestra fuente local para instalar yum. Aquí elegimos para crear fuente de yum local para instalar.

Así que en primer lugar es necesario descargar el paquete rpm, descarga la siguiente dirección

http://archive.cloudera.com/cdh5/repo-as-tarball/5.14.0/cdh5.14.0-centos6.tar.gz

## Debido a cdh5.14.0-centos6.tar.gz paquete de descarga es muy grande, aproximadamente 5 g, después de la descompresión también requiere un mínimo de espacio para cinco G. Y nuestro disco máquina virtual está limitado, puede no ser suficiente, es posible montar un nuevo disco de la máquina virtual dedicada al almacenamiento paquete cdh5.14.0-centos6.tar.gz.

En tercer lugar, configurar el yum local de la fuente

1. Descomprimir el paquete Subir

tar -zxvf cdh5.14.0-centos6.tar.gz

rz sólo puede cargar datos en un plazo máximo de 4G, es necesario decirlo de otra manera, por ejemplo, cargar SSLClient.

2, para configurar el yum local de información de la fuente

Instalar el servidor Apache servidor

yum  -y install httpd

service httpd start

chkconfig httpd on

3, configurar el archivo de origen local, yum

cd /etc/yum.repos.d

vim cdh.repo

Crear un enlace para leer el Apache httpd

ln -s /export/servers/cdh/5.14.0 / var / www / html / CDH

Asegúrese de que el linux selinux cerrada

临时关闭:
[root@localhost ~]# getenforce
Enforcing
[root@localhost ~]# setenforce 0
[root@localhost ~]# getenforce

Permissive
永久关闭:
[root@localhost ~]# vim /etc/sysconfig/selinux
SELINUX=enforcing 改为 SELINUX=disabled
重启服务reboot

el acceso del navegador a través de una fuente de yum local, si hay éxito la página siguiente.

http://192.168.227.153/CDH/

El perfil de origen local, yum distribuye localimp.repo a todos los nodos en la necesidad de instalar impala.

cd /etc/yum.repos.d/

SCP cdh.repo nodo 0 2: $ PWD

SCP cdh.repo Node0 3: $ PWD

En cuarto lugar, la instalación del impala

1, el plan de clúster

Nombre del servicio

desde el nodo

desde el nodo

El nodo maestro

impala-catálogo

 

 

Nodo-3

impala-estado-tienda

 

 

Nodo-3

impala-servidor (impalad)

Nodo-1

Nodo-2

Nodo-3

En la planificación del nodo principal del nodo-3 instalado ejecutar los siguientes comandos:

yum install -y impala impala-server impala-state-store impala-catalog impala-shell

En la planificación de los ganglios linfáticos-1 , Nodo-2 instalar el siguiente orden:

yum install -y impala-server

 En quinto lugar, modificar Hadoop, la configuración de la colmena

3 máquinas necesitan para operar en todo el clúster , necesitan ser modificados. hadoop, si el servicio normal de la colmena y configurado, se decide si impala exitoso lanzamiento y uso de la premisa

1, la configuración de la modificación colmena

vim /export/servers/hive/conf/hive-site.xml

<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>  
    <value>jdbc:mysql://node01:3306/hive?createDatabaseIfNotExist=true</value>
  </property>  
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>  
    <value>com.mysql.jdbc.Driver</value>
  </property>  
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>  
    <value>root</value>
  </property>  
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>  
    <value>hadoop</value>
  </property>  
  <property>
    <name>hive.cli.print.current.db</name>  
    <value>true</value>
  </property>  
  <property>
    <name>hive.cli.print.header</name>  
    <value>true</value>
  </property>  
  <!-- 绑定运行hiveServer2的主机host,默认localhost -->  
  <property>
    <name>hive.server2.thrift.bind.host</name>  
    <value>node01</value>
  </property>  
  <!-- 指定hive metastore服务请求的uri地址 -->  
  <property>
    <name>hive.metastore.uris</name>  
    <value>thrift://node01:9083</value>
<!-- 启动impala使用hive的时候要在这里指定的节点开启hive服务 -->
  </property>  
  <property>
    <name>hive.metastore.client.socket.timeout</name>  
    <value>3600</value>
  </property>
</configuration>

Cp configurar la colmena para las otras dos máquinas.

cd $ HIVE_HOME / conf

node02 SCP-colmena site.xml: $ PWD

node03 SCP-colmena site.xml: $ PWD

2, hadoop Modificar configuración

Todos los nodos crean la siguiente carpeta

mkdir -p / var / run / HDFS de enchufe

Modificar hdfs-site.xml todos los nodos añade la siguiente configuración cambios tengan efecto reinicie la agrupación después de completar hdfs

vim etc / hadoop / hdfs-site.xml

<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>/var/run/hdfs-sockets/dn</value>
</property>
<property>
<name>dfs.client.file-block-storage-locations.timeout.millis</name>
<value>10000</value>
</property>
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>

dfs.domain.socket.path es un camino de comunicación entre DFSClient local y DataNode el zócalo. datos de control de lectura abierta locales dfs.client.read.shortcircuit DFSClient,

El archivo de configuración de actualización hadoop, SCP a otras máquinas.

cd $ HADOOP_HOME / etc / hadoop

scp -r hdfs-site.xml node02: $ PWD

scp -r hdfs-site.xml node03: $ PWD

Nota: el usuario root no tiene que operar por debajo, los usuarios normales necesitan este paso.

Conceder permisos a esta carpeta, si se utiliza un hadoop usuario normal, que da directamente privilegios de usuario normales, tales como:

chown -R hadoop: hadoop / var / run / HDFS de enchufe /

3, hadoop reinicio, Colmena

Realice el siguiente comando en node01 se iniciaron los servicios MetaStore colmena y Hadoop.

cd / $ COLMENA

nohup bin / colmena --service meta almacén y

nohup bin / colmena - hiveserver2 servicio y

 

cd / $ HADOOP_HOME

sbin / stop-dfs.sh   |   sbin / start-dfs.sh

4. Copiar el hadoop, el perfil de la colmena

directorio de configuración impala / etc / impala / conf, este camino necesidad de núcleo-site.xml, hdfs-site.xml y colmena-site.xml continuación.

Todos los nodos ejecutan el siguiente comando

cp -r /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /etc/impala/conf/core-site.xml

cp -r /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /etc/impala/conf/hdfs-site.xml

cp -r /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml /etc/impala/conf/hive-site.xml

En sexto lugar, modificar el impala configuración

1, modificar el impala configuración predeterminada

Todos los nodos cambian el perfil predeterminado impala

vim / etc / default / impala

IMPALA_CATALOG_SERVICE_HOST = nodo 0 3

IMPALA_STATE_STORE_HOST = nodo 03

SCP / etc / default / impala node02: $ PWD

SCP / etc / default / impala node03: $ PWD

2, para agregar controladores de MySQL

Al configurar el archivo / etc / default / impala se pueden encontrar en la ubicación ha sido impulsado nombre especificado MySQL.

 

Utilizar un enlace simbólico a la ruta a (3 máquinas necesitan ser realizados)

Ln -s /export/servers/hive/lib/mysql-connector-java-5.1.32.jar /usr/share/java/mysql-connector-java.jar

3, modificar la configuración bigtop

JAVA_HOME bigtop ruta modificada (3 máquinas)

vim / etc / default / bigtop-utils

export JAVA_HOME = / export / servidores / jdk1.8.0_65

Siete, puesta en marcha, servicio de desactivación de impala

El nodo 3-nodo maestro inicia el siguiente proceso de tres servicios

puesta en servicio impala-estado-tienda

puesta en servicio impala-catálogo

puesta en servicio impala-servidor

Start nodo 1 y el nodo 2-promotor impala-servidor desde el nodo

puesta en servicio impala-servidor

existe proceso de vista impala

ps-ef | impala agarre

 

Después de iniciar todo sobre el impala por defecto de registro en / var / log / impala 

Si es necesario apagar el comando service impala para iniciar la parada puede ser. Tenga en cuenta que después de que el proceso de apagado si todavía residen, se puede tomar la siguiente manera de quitar. En circunstancias normales, con la desaparición de cerca.

solución:

impala  interfaz de usuario web

gestión de acceso Impalad interfaz http: // nodo-3: 25.000 /

gestión de acceso Statestored interfaz http: // nodo-3: 25.010 /

 

Publicado 81 artículos originales · ganado elogios 21 · vistas 2235

Supongo que te gusta

Origin blog.csdn.net/qq_44065303/article/details/103456534
Recomendado
Clasificación