Verifique a versão do sistema operacional
$ sudo lsb_release -a
trabalho A. Preparatória (opcional)
Rede de Educação 1.1 Adicionando um espelho
Primeiro, faça uma cópia de segurança do /etc/apt/sources.list originais.
$ sudo cp /etc/apt/sources.list /etc/apt/sources.list.backup
Em seguida, o $ sudo vim /etc/apt/sources.list
comando para substituir todo o conteúdo do /etc/apt/sources.list
# 清华大学镜像,默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-updates main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-updates main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-backports main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-backports main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-security main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-security main restricted universe multiverse
# 预发布软件源,不建议启用
# deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-proposed main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-proposed main restricted universe multiverse
ou
#上海交通大学更新服务器
deb http://ftp.sjtu.edu.cn/ubuntu/ lucid main multiverse restricted universe
deb http://ftp.sjtu.edu.cn/ubuntu/ lucid-backports main multiverse restricted universe
deb http://ftp.sjtu.edu.cn/ubuntu/ lucid-proposed main multiverse restricted universe
deb http://ftp.sjtu.edu.cn/ubuntu/ lucid-security main multiverse restricted universe
deb http://ftp.sjtu.edu.cn/ubuntu/ lucid-updates main multiverse restricted universe
deb-src http://ftp.sjtu.edu.cn/ubuntu/ lucid main multiverse restricted universe
deb-src http://ftp.sjtu.edu.cn/ubuntu/ lucid-backports main multiverse restricted universe
deb-src http://ftp.sjtu.edu.cn/ubuntu/ lucid-proposed main multiverse restricted universe
deb-src http://ftp.sjtu.edu.cn/ubuntu/ lucid-security main multiverse restricted universe
deb-src http://ftp.sjtu.edu.cn/ubuntu/ lucid-updates main multiverse restricted universe
Finalmente, atualizar a fonte de dados.
$ sudo apt-get update #更新数据源
$ sudo apt-get upgrade #更新软件版本,可以不执行
1.2 modificar o nome do host
Ubuntu 18.04 terá de modificar o arquivo /etc/cloud/cloud.cfg
$ sudo vim /etc/cloud/cloud.cfg #找到preserve_hostname: false修改为preserve_hostname: true
Três computadores nomes são: Master, Slave01, Slave02. Use o comando
$ sudo vim /etc/hostname #永久修改主机名(需要重新启动$ sudo reboot)
Modificar, salvar. Você deve, em seguida, reiniciar o computador para ser capaz de mudar o nome do computador. Ou usar o comando
$ sudo hostname Master #临时修改主机名
Nota : Depois de executar este comando, modificar temporariamente o nome do host (no novo terminal para ver o nome do host foi alterado), o nome do host após a reinicialização e restaurar o original.
1,3 endereços IP Configurando
Ubuntu 18.04 Configuração /etc/netplan/50-cloud-init.yaml
$ sudo vim /etc/netplan/50-cloud-init.yaml #双网卡地址配置
$ sudo netplan apply #配置生效
Três computadores para configurar um endereço IP estático (o cartão padrão aqui chamado eth0, alguns também têm padrão é chamado ens160, ens32, você pode usar $ comando ifconfig para o visualizar).
$ sudo vim /etc/network/interfaces
1.4 modificar o / etc / hosts
usando o $ ifconfig
comando para exibir o endereço IP do computador.
Três computadores sequencialmente de entrada em $sudo vim /etc/hosts
ordem para modificar o seguinte (note que o endereço IP de acordo com a situação real):
Depois de editar, o comando ping Bureau três computadores podem ser conectados.
$ ping Slave01
$ ping Slave02
$ ping Master
1.5 usuário Hadoop para criar
três computadores são configurados em um usuário hadoop milhas nomeados conta (você pode definir o Hadoop nome de usuário, dependendo das circunstâncias)
$ sudo useradd -m miles -s /bin/bash #创建hadoop用户叫做miles,并使用/bin/bash作为shell
$ sudo passwd miles #为hadoop用户设置密码,之后需要连续输入两次密码(例如:密码为0123456789)
$ sudo adduser miles sudo #为hadoop用户增加管理员权限
$ su - miles #切换当前用户为用户miles(hadoop用户)
$ sudo apt-get update #更新hadoop用户的apt,方便后面的安装
instalação 1.6 SSH, configurar SSH sem senha
se já servido por ssh, você pode pular esta etapa e configurar SSH sem senha.
$ sudo apt-get install openssh-server #安装SSH server
No set up senha de login SSH.
$ ssh localhost #登陆SSH,第一次登陆输入yes
$ exit #退出登录的ssh localhost
$ cd ~/.ssh/ #如果没法进入该目录,执行一次ssh localhost
$ ssh-keygen -t rsa
Após a entrada $ ssh-keygen -t rsa
depois da instrução requer três carro de tomada consecutivo, como mostrado abaixo:
em que, o primeiro é para permitir que a chave de transporte armazenadas na posição de repouso, para facilitar a entrada de um comando subsequente (ficha nota). O segundo e terceiro estão determinados senha, pouca correlação. Enter duas vezes após a conclusão da entrada, se a saída é semelhante ao mostrado na figura, ou seja, o sucesso:
qual arquivo id_rsa a chave privada (privite Key), id_rsa.pub chave pública (chave pública). As duas chaves são por padrão no diretório ~ / .ssh /, vá para o diretório com $ cd ~ / .ssh / comando. Em seguida, digite:
$ cat ./id_rsa.pub >> ./authorized_keys #将id_rsa.pub追加到授权的key中,创建authorized_keys文件
$ chmod 600 authorized_keys #修改authorized_keys的权限为:拥有者读写权
$ ssh localhost
Desta vez não precisa de uma senha para entrar no localhost, e pode ser visto abaixo. Se isso falhar, você pode repetir os passos acima, ou procure "senha-livre de login SSH" para procurar respostas.
Repita os passos em cada computador 1,6 (SSH instalado, o SSH sem senha), e para alcançar id_rsa.pub authorized_keys gerar um público e Slave02 em Slave01 respectivamente. Em seguida, os seguintes comandos são executados nos dois nós filhos:
$ scp miles@Master:~/.ssh/id_rsa.pub ./master_rsa.pub #将Master上的公钥id_rsa.pub复制到子节点上,并命名为master_rsa.pub
Aparecerá a seguinte imagem, responder "sim" e senha milhas do usuário.
$ cat master_rsa.pub >> ./authorized_keys #将master_rsa.pub追加到子节点上授权的key中
Voltar ao nó mestre mestre, digite o comando $ ssh Slave01
para testar se pode ligar-se directamente. Neste ponto, você pode ligar-se directamente encontrado nó dois Slave Master (sem senha).
Q: Como é que a senha para entrar entre os nós escravo?
II. Jdk8 Instalação
Sobre o pacote baixado, consulte https://www.cnblogs.com/gbyukg/p/3326825.html
off 2018/11/08 encontrado Hadoop3.1.1 não suporta as últimas jdk11
computadores dentro das necessidades do sistema Hadoop para ser instalado . Em primeiro site oficial da Oracle para baixar e instalar a próxima jdk8 http://www.oracle.com/technetwork/java/javase/downloads/index.html configuração variável de ambiente, selecione a versão correspondente de sistemas de PC com base em, eu escolhi jdk- 8u191-linux-x64.tar.gz
$ sudo mkdir /usr/lib/jvm #创建jvm文件夹
$ sudo tar -zxvf Downloads/jdk-8u191-linux-x64.tar.gz -C /usr/lib/jvm
#解压到/usr/lib/jvm目录下,jdk下载后默认路径为~/Downloads中
$ cd /usr/lib/jvm #进入该目录
$ sudo mv jdk1.8.0_191 java #将jdk1.8.0_191目录重命名为java
$ vim ~/.bashrc #给JDK配置环境变量
Nota:
- Onde se a permissão não é suficiente para criar a pasta JVM, você pode usar sob o diretório relevante
$ sudo -i
comando para entrar a conta root para criar a pasta. - Também recomenda-se usar o vim para variáveis de ambiente de edição, se não for instalado, utilizado
$sudo apt-get install vim
para instalar.
Adicione a seguinte instrução no arquivo final .bashrc:
export JAVA_HOME=/usr/lib/jvm/java
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
Tais como:
Após a modificação do arquivo estiver concluída, digite o comando:
$ source ~/.bashrc #使新配置的环境变量生效
$ java -version #检测是否安装成功,查看java版本
Se o conteúdo aparece como mostrado abaixo, é a instalação bem-sucedida.
III. Instalação hadoop-3.1.1
Computadores dentro das necessidades do sistema Hadoop para ser instalado.
Hadoop-3.1.1.tar.gz pode baixar a partir http://mirrors.hust.edu.cn/apache/hadoop/common/, instalação:
$ sudo tar -zxvf hadoop-3.1.1.tar.gz -C /usr/local #解压到/usr/local目录下
$ cd /usr/local
$ sudo mv hadoop-3.1.1 hadoop #将hadoop-3.1.1目录重命名为hadoop
$ sudo chown -R miles ./hadoop #修改文件权限,属于用户miles
Hadoop para configurar as variáveis de ambiente, use o $ vim ~/.bashrc
comando, adicione o seguinte código para o arquivo .bashrc:
export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
Como mostrado abaixo
realizar source ~/.bashrc
as configurações tenham efeito. Em seguida, use $ hadoop version
o comando para Hadoop instalado com sucesso, se bem sucedido, ele retorna as seguintes informações, como mostrado na FIG.
modo de operação quatro. Hadoop
cluster do Hadoop operativo tem três modos, a saber:
- Modo / autônomo local: Por padrão, este modo é utilizado para a execução de programas Java.
- O modo de simulação distribuída (também chamado de padrão pseudo-distribuição): distribuído simulação em um computador. Hadoop guardião de cada processo, incluindo hdfs, fios, MapReduce, etc., como um programa Java stand-alone para correr, para uso de desenvolvimento.
- Totalmente distribuída: várias computadores em um conjunto de dois ou mais (incluindo) o uso de Hadoop, adequada para o uso prático. Como aqui utilizado, o modo.
Além disso, o Hadoop 2.x e Hadoop 3.x variam, leia "big data Hadoop2.x Hadoop3.x comparação com o que muda", um texto (https://blog.csdn.net/wshyb0314/article/details / 82184680). Em que, o número de porta utilizado, por padrão eles são diferentes, como se mostra na tabela a seguir.
V. configuração totalmente distribuído
5.1 Crie um diretório (somente disposta na Master)
para criar e dfs em hadoop usuário do diretório tmp (nome de usuário Milhas) foram utilizadas como o principal armazenamento de dados de diretório e de câmbio, e cria um subdiretório com o nome e os dados do DFS comando de diretório é o seguinte:
$ mkdir -p ~/dfs/name #在普通用户主目录下同时创建dfs目录及其子目录name
$ mkdir ~/dfs/data #创建dfs的子目录data
$ mkdir ~/tmp #在普通用户主目录下创建目录tmp
5.2 modificar o arquivo de configuração do
caminho do perfil (conjunto de acordo HADOOP_HOME) de / usr / local / hadoop / etc / hadoop / diretório para o diretório.
$ cd /usr/local/hadoop/etc/hadoop/
-
Execução
$ sudo vim workers
, adicionar o nome de host para três computadores. -
Execução
$ sudo vim core-site.xml
, o documento final vai<configuration> </configuration>
ser substituído
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://Master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/miles/tmp</value>
</property>
</configuration>
- Execução
$ sudo vim hadoop-env.sh
, definir a instalação JAVA_HOME JDK.
casa Java: o JAVA_HOME = / usr / lib / JVM / Java
do diretório home Hadoop: HADOOP_HOME = / usr / local / hadoop ( não definido)
como segue:
- A implementação do
$ sudo vim hdfs-site.xml
documento final para substituir
<configuration>
<property>
<name>dfs.namenode.http-address</name>
<!-- Master为当前机器名或者IP地址 -->
<value>hdfs://Master:9001</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<!-- 以下为存放节点命名的路径 -->
<value>/home/miles/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<!-- 以下为存放数据命名的路径 -->
<value>/home/miles/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<!-- 备份次数,因为有2台DataNode-->
<value>2</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<!-- Web HDFS-->
<value>true</value>
</property>
</configuration>
- Execução
$ sudo vim mapred-site.xml
, o documento final vai<configuration> </configuration>
ser substituído
<configuration>
<property>
<name>mapreduce.framework.name</name>
<!-- MapReduce Framework -->
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<!-- MapReduce JobHistory, 当前计算机的IP -->
<value>Master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<!-- MapReduce Web App JobHistory, 当前计算机的IP -->
<value>Master:19888</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>
</property>
<property>
<name>mapreduce.map.env</name>
<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>
</property>
<name>mapreduce.reduce.env</name>
<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>
</property>
</configuration>
- Execução
$ sudo vim yarn-site.xml
, o documento final vai<configuration> </configuration>
ser substituído
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<!-- Master为当前机器名或者ip号 -->
<value>Master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<!-- Node Manager辅助服务 -->
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<!-- Node Manager辅助服务类 -->
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.nodemanager.resource.cpu-vcores</name>
<!-- CPU个数,需要根据当前计算机的CPU设置-->
<value>2</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<!-- Resource Manager管理地址 -->
<value>Master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<!-- Resource Manager Web地址 -->
<value>Master:8088</value>
</property>
</configuration>
VI. Copie o arquivo de configuração do Hadoop
Após a configuração do mestre, a necessidade de copiar os arquivos de configuração Slave Master / usr / local / hadoop (HADOOP_HOME) de diretório para todos os nós. Primeiro, execute o seguinte comando no Master:
$ cd /usr/local
$ sudo rm -r ./hadoop/tmp #删除Hadoop临时文件
$ sudo rm -r ./hadoop/logs/* #删除Hadoop日志文件
$ tar -zcf ~/hadoop.master.tar.gz ./hadoop #将Hadoop的配置目录压缩成一个文件到用户主目录下
$ cd ~
$ scp ./hadoop.master.tar.gz miles@Slave01:~/ #将压缩包文件复制到Slave01主机上miles用户的主目录下
Em seguida, os seguintes comandos no nó Escravo:
$ sudo rm -r /usr/local/hadoop #删除原来的Hadoop文件和目录
$ sudo tar -zxf ~/hadoop.master.tar.gz -C /usr/local #解压缩都/usr/local目录中
$ sudo chown -R miles /usr/local/hadoop #修改/usr/local/hadoop目录的拥有者为Hadoop用户miles
VII. Iniciar Hadoop
1. Inicie HDFS
● inicialização NameNode
Master é namenode, Escravo é DataNode, por isso só precisa ser formatado em HDFS Mestre, o seguinte comando:
$ hdfs namenode -format #初始化namenode
A formatação irá produzir várias peças de informação, em que a terceira linha se houver
...... Armazenamento diretório / home / milhas / hdfs / nome foi formatado com sucesso, então a formatação sucesso HDFS.
No retorno de erro "Saindo com status de 0" for bem sucedida, "Saindo com status de 1" para o fracasso.
● Teste início HDFS
execute o seguinte comando no mestre
$ start-dfs.sh #启动dfs
$ start-yarn.sh #启动yarn
$ mapred --daemon start historyserver #启动historyserver,它不是必须的步骤
Executada no mestre $jps
de comando, você pode ver cinco processos.
NameNode
SecondaryNameNode
NodeManager
ResourceManager
Jps
JobHistoryServer
Realizada no Slave $jps
comando, você pode ver três processos.
DataNode
NodeManager
Jps
Nota : A falta de qualquer processo expressaram um erro. Pode ser acessado através de um navegador http: // Master: 9870 (Hadoop3) ou http: // Master: 50070 (Hadoop2 ) View Log Logs, ou o nome do nó e de dados nós.
2. Verifique os casos de cluster Hadoop
executadas no Mestre $ hdfs dfsadmin -report
de comando para ver se o nó de dados é iniciado normalmente. Se o início normal, ele retorna a seguinte informação como mostrado na FIG. DataNodes ao vivo que não é zero, o que indica que o cluster iniciado com êxito. A figura que se segue ilustra o agrupamento tem três DataNode.
Você também pode digitar no browser http: // mestre: 9870 ou o endereço IP http://192.168.1.10:9870, ver o estado do cluster Web, como mostrado abaixo.
Oito. Testes plataforma Hadoop
- WordCount
no diretório de instalação do Hadoop (/ usr / local / hadoop / ), fornece uma --WordCount programa de contagem de palavras. programa WordCount execução no Hadoop plataforma de computação, aproveitando MapReduce e HDFS. Ele pode contar o número de vezes que a palavra aparece no arquivo e, em seguida, dá resultados estatísticos. Nós WordCount executando um programa que pode detectar se a plataforma Hadoop para funcionar adequadamente.
1 para estabelecer o diretório apropriado e os arquivos de texto correspondentes no HDFS. No diretório home (/ home / milhas /) criar uma entrada de pasta e digite a entrada de pasta, execute o seguinte comando:
$ mkdir /home/miles/input
$ cd /home/miles/input
File01 criar documentos e file02, e grava o conteúdo a ser contadas são ordenados da seguinte forma:
$ echo "hello world bye world" > file01 #写内容到文件file01中
$ echo "hello hadoop goodbye hadoop" >file02 #写内容到文件file02中
2 Criar uma entrada de diretório no HDFS, o file01 e file02 enviado para a entrada de hdfs diretório, execute o seguinte comando
$ cd /home/miles/input
$ hadoop fs -mkdir /hadoopusers/miles/input #创建HDFS的/hadoopusers/miles/input目录
$ hadoop fs -put * /hadoopusers/miles/input #将/home/miles/input目录下的文件上传到HDFS的/hadoopusers/miles/input目录
$ hadoop fs -ls /hadoopusers/miles/input #/查看HDFS的/hadoopusers/miles/input目录下文件的状态
Quando o visor do terminal:
-rw-r--r-- 4 miles supergroup 22 2018-11-09 21:43 input/file01
-rw-r--r-- 4 miles supergroup 28 2018-11-09 21:43 input/file02
Isso significa que os arquivos enviados para o sucesso HDFS.
3 Run WordCount programa de
entrada (conjunto de acordo HADOOP_HOME) de / usr / local / hadoop / etc / hadoop // share / Hadoop / MapReduce diretório. WordCount em seguida, executar o programa, o seguinte comando
#进入目录
$ cd /usr/local/hadoop/share/hadoop/mapreduce
#执行Wordcount程序
$ hadoop jar hadoop-mapreduce-examples-3.1.1.jar wordcount /hadoopusers/miles/input /hadoopusers/miles/output
Nota : A saída deve ser um novo em um diretório vazio.
Exploração do terminal vai gerar mais sistema de informação, se a seguinte informação é exibida:
18/11/09 21:56:18 INFO mapreduce.Job: map 0% reduce 0%
18/11/09 21:56:29 INFO mapreduce.Job: map 100% reduce 0%
18/11/09 21:56:38 INFO mapreduce.Job: map 100% reduce 100%
18/11/09 21:56:38 INFO mapreduce.Job: Job job_1410242637907_0001 completed successfully
18/11/09 21:56:38 INFO mapreduce.Job: Counters: 43
Mostrar programa executou uma modo de programação MapReduce distribuído durante a operação.
4 resultados operacionais saída do programa
após WordCount execução do programa for concluído, os resultados da pesquisa será a saída para um arquivo HDFS parte-r-00000 sob o diretório de saída. Digite o seguinte comando para visualizar a palavra estatísticas.
$ hadoop fs -cat /hadoopusers/miles/output/part-r-00000
O terminal de saída do visor do terminal:
bye 1
goodbye 1
hadoop 2
hello 2
world 2
Podemos ver os resultados, clusters Hadoop pode contar com sucesso o número de arquivos file01 e file02 cada palavra aparece, indicando que a plataforma Hadoop pode ser executado com êxito.
Q: Como eu sei, para configurar e modificar o usuário hadoop diretório padrão?
- informações de cluster Ver Hadoop
Durante a execução, digite no navegador http: // mestre: 8088 ou http://192.168.1.10:8080, visualizar as informações de cluster Hadoop através da interface Web, como mostrado abaixo.
cluster do Hadoop descritos acima são adequadamente iniciada. Se você precisa fechar o cluster Hadoop, você pode executar comandos no Master:
$ stop-yarn.sh
$ stop-dfs.sh
$ mapred --daemon stop historyserver #关闭历史记录服务
Q: Auto utilização de encaixe (recipiente) na forma de configuração de cluster Hadoop de acordo com a presente experiência.
IX. Erro
“2018-10-30 13:30:40,855 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable”
No arquivo / etc / profile, adicione a seguinte configuração:
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
Validar a configuração:$ source /etc/profile
- Antes de começar de novo se Hadoop, mas agora não pode iniciar corretamente, especialmente quando DataNode não iniciar. Você pode excluir o nome do cluster nome armazenado em Mestre, o nome do arquivo de dados, execute o seguinte comando:
$ rm -r /home/miles/hdfs/name/*
$ rm -r /home/miles/hdfs/data/*
E todos os arquivos temporários, incluindo mestre e escravo, incluindo todos os nós, execute o seguinte comando:
$ rm -r /home/miles/tmp/*
Na re-executar $ hdfs namenode -format
o comando, re-formatar o cluster do Hadoop.
3. Se você encontrar o seguinte erro: " java.net.ConnectException: Call From Master/192.168.1.10 to Master:8032 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
" causa provável é ResourceManager não foi iniciado.
Referências
- Apache Hadoop 3.1.1 documentos oficiais https://hadoop.apache.org/docs/r3.1.1/
- Hadoop Cluster instalar a versão em Inglês https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/ClusterSetup.html
- Hadoop 3.x nova análise características https://www.cnblogs.com/smartloli/p/9028267.html
- xfce4 e vncserver configuração https://www.howtoing.com/how-to-install-and-configure-vnc-on-ubuntu-18-04
- Ubuntu16.04 HADOOP a instalação e configuração (ambiente distribuído pseudo) https://www.cnblogs.com/87hbteo/p/7606012.html
- Setup Hadoop Cluster totalmente distribuído https://blog.csdn.net/u014636511/article/details/80171002
- Hadoop3.1.0 totalmente distribuído implantação conjunto de ficha de ultra-detalhado https://blog.csdn.net/weixin_42142630/article/details/81837131
- Hadoop3.1.0 totalmente distribuído implantação conjunto de ficha de ultra-detalhado https://blog.csdn.net/dream_an/article/details/80258283?utm_source=blogxgwz0
- ambiente Hadoop para construir (stand-alone) https://blog.csdn.net/qazwsxpcm/article/details/78637874?utm_source=blogxgwz0
- versão estável Hadoop3.0 da instalação e implantação https://blog.csdn.net/rlnLo2pNEfx9c/article/details/78816075