instalação e implantação Impala

Em primeiro lugar, instalar o pré-requisito

antecedência Cluster instalado Hadoop, colmeia.

SCP pacotes de instalação colmeia precisa ser instalado em todos os nós impala, porque a necessidade de impala referência dependências colmeia.

Hadoop necessidades estruturais para interface de acesso a apoio ao programa C, ver a figura a seguir, há assim arquivo se o caminho para provar que suporte a interface C.

Em segundo lugar, fazer o download do pacote de instalação, dependências

Desde o impala não fornece pacote tar está instalado, apenas o pacote rpm. Assim, quando o impala montagem, pacotes rpm precisa ser instalado. pacote rpm apenas empresa oferece Cloudera, então vá site da empresa Cloudera para baixar o pacote rpm.

Mas uma outra questão, impala outro pacote pacote rpm rpm muito dependente, pode-se descobrir dependerá, mas também todo o pacote rpm pode ser baixado, feita em nossa fonte yum local para instalar. Aqui podemos escolher para criar fonte yum local para instalar.

Então, primeiro de tudo você precisa baixar o pacote rpm, baixe o seguinte endereço

http://archive.cloudera.com/cdh5/repo-as-tarball/5.14.0/cdh5.14.0-centos6.tar.gz

## Por causa de pacote de download cdh5.14.0-centos6.tar.gz é muito grande, cerca de 5 G, após a descompressão também requer um mínimo de espaço para cinco G da. E o nosso disco de máquina virtual é limitada, pode não ser suficiente, é possível montar um novo disco para a máquina virtual dedicada ao pacote cdh5.14.0-centos6.tar.gz armazenamento.

Em terceiro lugar, configurar o yum locais fonte

1. Descompacte o pacote Carregar

tar -zxvf cdh5.14.0-centos6.tar.gz

rz só pode carregar dados dentro de um máximo de 4G, é necessário colocá-lo de forma diferente carregar por exemplo sslclient.

2, para configurar o yum local de informação da fonte

Instalar o servidor Apache Servidor

yum  -y install httpd

service httpd start

chkconfig httpd on

3, configurar o arquivo de origem yum locais

cd /etc/yum.repos.d

vim cdh.repo

Criar um link para ler o apache httpd

ln -s /export/servers/cdh/5.14.0 / var / www / html / CDH

Verifique se o linux SELinux fechada

临时关闭:
[root@localhost ~]# getenforce
Enforcing
[root@localhost ~]# setenforce 0
[root@localhost ~]# getenforce

Permissive
永久关闭:
[root@localhost ~]# vim /etc/sysconfig/selinux
SELINUX=enforcing 改为 SELINUX=disabled
重启服务reboot

acesso do browser através de uma fonte yum local, se houver sucesso a seguinte página.

http://192.168.227.153/CDH/

O perfil de origem yum locais localimp.repo distribuído a todos nós na necessidade de instalar impala.

cd /etc/yum.repos.d/

SCP cdh.repo nó 0 2: $ PWD

SCP cdh.repo node0 3: $ PWD

Em quarto lugar, instalar Impala

1, o plano de conjunto

Name service

a partir do nó

a partir do nó

O nó mestre

impala-catálogo

 

 

Nó-3

impala-state-store

 

 

Nó-3

impala-servidor (impalad)

Nó-1

Nó-2

Nó-3

No planejamento do nó mestre nó-3 instalado execute os seguintes comandos:

yum install -y impala impala-server impala-state-store impala-catalog impala-shell

No planejamento das node-1 nodos , Node-2 instale a seguinte ordem:

yum install -y impala-server

 Em quinto lugar, modificar Hadoop, configuração Hive

3 máquinas precisam de operar em todo o agrupamento , precisa de ser modificada. hadoop, se o serviço normal colmeia e configurado, é decidido se impala lançamento bem sucedido ea utilização da premissa

1, a configuração de modificação colmeia

vim /export/servers/hive/conf/hive-site.xml

<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>  
    <value>jdbc:mysql://node01:3306/hive?createDatabaseIfNotExist=true</value>
  </property>  
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>  
    <value>com.mysql.jdbc.Driver</value>
  </property>  
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>  
    <value>root</value>
  </property>  
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>  
    <value>hadoop</value>
  </property>  
  <property>
    <name>hive.cli.print.current.db</name>  
    <value>true</value>
  </property>  
  <property>
    <name>hive.cli.print.header</name>  
    <value>true</value>
  </property>  
  <!-- 绑定运行hiveServer2的主机host,默认localhost -->  
  <property>
    <name>hive.server2.thrift.bind.host</name>  
    <value>node01</value>
  </property>  
  <!-- 指定hive metastore服务请求的uri地址 -->  
  <property>
    <name>hive.metastore.uris</name>  
    <value>thrift://node01:9083</value>
<!-- 启动impala使用hive的时候要在这里指定的节点开启hive服务 -->
  </property>  
  <property>
    <name>hive.metastore.client.socket.timeout</name>  
    <value>3600</value>
  </property>
</configuration>

Cp configurar a colmeia para as outras duas máquinas.

cd $ HIVE_HOME / conf

node02 scp hive-site.xml: $ PWD

node03 scp hive-site.xml: $ PWD

2, hadoop Modificar configuração

Todos os nós criar a seguinte pasta

mkdir -p / var / run / HDFS-sockets

Modificar hdfs-site.xml todos os nós adicionar a seguinte configuração alterações entrem em vigor, reinicie o cluster depois de completar hdfs

vim etc / hadoop / hdfs-site.xml

<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>/var/run/hdfs-sockets/dn</value>
</property>
<property>
<name>dfs.client.file-block-storage-locations.timeout.millis</name>
<value>10000</value>
</property>
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>

dfs.domain.socket.path é um caminho de comunicação entre DFSClient local e DataNode em Socket. dados de controle de leitura aberta locais dfs.client.read.shortcircuit DFSClient,

O arquivo de configuração de atualização Hadoop, scp para outras máquinas.

cd $ HADOOP_HOME / etc / hadoop

node02 scp -r hdfs-site.xml: $ PWD

node03 scp -r hdfs-site.xml: $ PWD

Nota: o usuário root não precisam operar abaixo, os usuários comuns precisam este passo.

permissão dar a esta pasta, se estiver usando um hadoop usuário normal, dá diretamente privilégios de usuário comuns, tais como:

chown -R Hadoop: hadoop / var / run / HDFS-sockets /

3, restart Hadoop, Hive

Execute o seguinte comando em node01 foram iniciados serviços metastore colmeia e Hadoop.

cd / $ HIVE

nohup bin / colmeia --service metastore &

nohup bin / colmeia - serviço hiveserver2 &

 

cd / $ HADOOP_HOME

sbin / stop-dfs.sh   |   sbin / start-dfs.sh

4. Copie o Hadoop, perfil Hive

directório configuração impala / etc / impala / conf, esta necessidade caminho para o núcleo-site.xml, hdfs-site.xml e colmeia-site.xml abaixo.

Todos os nós execute o seguinte comando

cp -r /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /etc/impala/conf/core-site.xml

cp -r /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /etc/impala/conf/hdfs-site.xml

cp -r /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml /etc/impala/conf/hive-site.xml

Em sexto lugar, modificar a configuração do impala

1, modificar o impala configuração padrão

Todos os nós mudar o impala perfil padrão

vim / etc / default / impala

IMPALA_CATALOG_SERVICE_HOST = nó 0 3

IMPALA_STATE_STORE_HOST = nó 03

scp / etc / default / impala node02: $ PWD

scp / etc / default / impala node03: $ PWD

2, motorista add mysql

Ao configurar o / etc / default / impala pode ser encontrado no local foi nome especificado mysql conduzido.

 

Use um soft link para a rota para (3 máquinas precisam ser executadas)

Ln -s /export/servers/hive/lib/mysql-connector-java-5.1.32.jar /usr/share/java/mysql-connector-java.jar

3, modificar a configuração bigtop

Java_home bigtop caminho modificado (3 máquinas)

vim / etc / default / bigtop-utils

export JAVA_HOME = / export / servidores / jdk1.8.0_65

Sete, arranque, serviço de desligamento impala

O nó-3 nó mestre iniciar o seguinte processo de três serviço

serviço de início impala-state-store

serviço impala-catálogo início

início impala-servidor do serviço

Iniciar node-1 e node-2 promotora impala-servidor a partir do nó

início impala-servidor do serviço

existe processo Ver impala

ps -ef | impala aderência

 

Depois de começar tudo sobre impala do padrão log em / var / log / impala 

Se você precisa desligar o comando impala serviço para iniciar a paragem pode ser. Note-se que após o processo de desligamento se ainda residem, você pode ter a seguinte maneira de remover. Em circunstâncias normais, com o desaparecimento de perto.

solução:

impala  Web UI

gerenciamento de acesso Impalad interface de http: // nó-3: 25000 /

gerenciamento de acesso Statestored interface de http: // nó-3: 25010 /

 

Publicado 81 artigos originais · ganhou elogios 21 · vista 2235

Acho que você gosta

Origin blog.csdn.net/qq_44065303/article/details/103456534
Recomendado
Clasificación