Hadoop d'installation de la machine virtuelle Linux

Table des matières

1 téléchargement Hadoop

2 décompresser Hadoop

3 Renommez le dossier hadoop

4 Autoriser le dossier hadoop 

5 Modifier les variables d'environnement

6 Actualiser les variables d'environnement

7 Créer des données de dossier dans le répertoire hadoop313

8 Vérifier les fichiers

 9 Modifiez le fichier ./core-site.xml

 10 Modifiez le fichier ./hadoop-env.sh

11 Editez le fichier ./hdfs-site.xml

 12 Editez le fichier ./mapred-site.xml

13 Editez le fichier ./yarn-site.xml

14 Modifiez le fichier ./workers

15 initialisation

16 Configurer la connexion sans mot de passe

17 Démarrer et arrêter Hadoop

18 tests Hadoop


1 téléchargement Hadoop

Les ressources du disque réseau Hadoop3.1.3 sont les suivantes :

Lien : https://pan.baidu.com/s/1a2fyIUABQ0e-M8-T522BjA?pwd=2jqu Code d'extraction : 2jqu

2 décompresser Hadoop

Décompressez l'archive hadoop dans le répertoire /opt/soft

tar -zxf ./hadoop-3.1.3.tar.gz -C /opt/soft/

Vérifiez s'il a été extrait dans le répertoire /opt/soft

ls /opt/soft

3 Renommez le dossier hadoop

Remplacez hadoop-3.1.3/ par hadoop313

mv hadoop-3.1.3/ hadoop313

4 Attribuer un groupe au dossier hadoop 

chown -R root:root ./hadoop313/

5 Modifier les variables d'environnement

# HADOOP_HOME
export HADOOP_HOME=/opt/soft/hadoop313
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/lib
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export HDFS_JOURNALNODE_USER=root
export HDFS_ZKFC_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

6 Actualiser les variables d'environnement

source /etc/profile

7 Créer des données de dossier dans le répertoire hadoop313

mkdir ./data

8 Vérifier les fichiers

Vérifiez s'il existe les fichiers suivants dans le chemin /opt/soft/hadoop313/etc/hadoop

 9 Modifiez le fichier ./core-site.xml

vim ./core-site.xml

Ajoutez le contenu suivant dans <configuration></configuration>

Faites attention à savoir si votre nom d'hôte est cohérent et si vous avez effectué un mappage de nom de domaine

Le mappage de nom de domaine peut faire référence à la configuration d'installation Linux Configuration d'installation Oracle+plsql (détaillée)_sqlplus installation_Super Love Slow Blog-CSDN Blog

premiers pas

    <property>
      <name>fs.defaultFS</name>
      <value>hdfs://kb129:9000</value>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/opt/soft/hadoop313/data</value>
    </property>
    <property>
      <name>hadoop.http.staticuser.user</name>
      <value>root</value>
    </property>
    <property>
      <name>io.file.buffer.size</name>
      <value>131073</value>
    </property>
    <property>
      <name>hadoop.proxyuser.root.hosts</name>
      <value>*</value>
    </property>
    <property>
      <name>hadoop.proxyuser.root.groups</name>
      <value>*</value>
    </property>

 10 Modifiez le fichier ./hadoop-env.sh

Recherchez l'export commenté JAVA_HOME ou réécrivez-en un directement

Faites attention à savoir si votre chemin JAVA_HOME est cohérent avec cet article

vim ./hadoop-env.sh
export JAVA_HOME=/opt/soft/jdk180

11 Editez le fichier ./hdfs-site.xml

vim ./hdfs-site.xml

Ajoutez le contenu suivant dans <configuration></configuration>

    <property>
      <name>dfs.replication</name>
      <value>1</value>
    </property>
    <property>
      <name>dfs.namenode.name.dir</name>
      <value>/opt/soft/hadoop313/data/dfs/name</value>
    </property>
    <property>
      <name>dfs.datanode.data.dir</name>
      <value>/opt/soft/hadoop313/data/dfs/data</value>
    </property>
    <property>
      <name>dfs.permissions.enabled</name>
      <value>false</value>
    </property>

 12 Editez le fichier ./mapred-site.xml

vim ./mapred-site.xml

Ajoutez le contenu suivant dans <configuration></configuration>

Notez votre nom d'hôte

    <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
    </property>
    <property>
      <name>mapreduce.jobhistory.address</name>
      <value>kb129:10020</value>
    </property>
    <property>
      <name>mapreduce.jobhistory.webapp.address</name>
      <value>kb129:19888</value>
    </property>
    <property>
      <name>mapreduce.map.memory.mb</name>
      <value>4096</value>
    </property>
    <property>
      <name>mapreduce.reduce.memory.mb</name>
      <value>4096</value>
    </property>
    <property>
      <name>mapreduce.application.classpath</name>
      <value>/opt/soft/hadoop313/etc/hadoop:/opt/soft/hadoop313/share/hadoop/common/lib/*:/opt/soft/hadoop313/share/had    oop/common/*:/opt/soft/hadoop313/share/hadoop/hdfs/*:/opt/soft/hadoop313/share/hadoop/hdfs/lib/*:/opt/soft/hadoop313/    share/hadoop/mapreduce/*:/opt/soft/hadoop313/share/hadoop/mapreduce/lib/*:/opt/soft/hadoop313/share/hadoop/yarn/*:/op    t/soft/hadoop313/share/hadoop/yarn/lib/*</value>
    </property>

13 Editez le fichier ./yarn-site.xml

vim ./yarn-site.xml

Ajoutez le contenu suivant dans <configuration></configuration>

Faites attention à savoir si votre nom d'hôte (nom d'hôte) est cohérent

    <property>
      <name>yarn.resourcemanager.connect.retry-interval.ms</name>
      <value>20000</value>
    </property>
    <property>
      <name>yarn.resourcemanager.scheduler.class</name>
      <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
    </property>
    <property>
      <name>yarn.nodemanager.localizer.address</name>
      <value>kb129:8040</value>
    </property>
    <property>
      <name>yarn.nodemanager.address</name>
      <value>kb129:8050</value>
    </property>
    <property>
      <name>yarn.nodemanager.webapp.address</name>
      <value>kb129:8042</value>
    </property>
   <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
    </property>
  
    <property>
      <name>yarn.nodemanager.local-dirs</name>
      <value>/opt/soft/hadoop313/yarndata/yarn</value>
    </property>
  
    <property>
      <name>yarn.nodemanager.log-dirs</name>
      <value>/opt/soft/hadoop313/yarndata/log</value>
    </property>
  
  
    <property>
      <name>yarn.nodemanager.vmem-check-enabled</name>
      <value>false</value>
    </property>

14 Modifiez le fichier ./workers

vim ./workers

 Remplacez le contenu à l'intérieur par votre nom d'hôte (nom d'hôte)

comme:

kb129

15 initialisation

hadoop namenode -format

Voir le contenu suivant signifie une initialisation réussie

16 Configurer la connexion sans mot de passe

Retour au répertoire personnel

ssh-keygen -t rsa -P ""

entrer après entrer

L'écran suivant va apparaitre

Vérifiez s'il existe un fichier .ssh

ll -a

 Configurer la connexion sans mot de passe

cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

Testez la connexion sans mot de passe (ssh se connecte à lui-même)

ssh -p 22 root@kb159

Si vous n'avez pas besoin de saisir de mot de passe, la configuration est réussie

La première connexion aura la possibilité de saisir oui ou non

À l'avenir, la connexion n'aura pas une telle invite et la connexion réussira directement.

Une fois la connexion réussie, revenez à la machine, entrez Quitter et appuyez sur Entrée.

Si vous êtes deux machines virtuelles différentes et que vous souhaitez utiliser ssh pour vous connecter, vous devez exécuter la commande suivante sur chacune des deux machines virtuelles

(Le nom d'hôte ici est une autre machine virtuelle)

ssh-copy-id -i ~/.ssh/id_rsa.pub -p22 root@kb128

17 Démarrer et arrêter Hadoop

démarrer Hadoop

start-all.sh 

 arrêter Hadoop

stop-all.sh 

18 tests Hadoop

Entrez jps et les six messages suivants apparaîtront

 Entrez l'URL http://192.168.153.129:9870/ dans le navigateur et la page apparaîtra ( attention à remplacer votre propre adresse IP )

 Ou vérifiez la version Hadoop

hadoop version

Je suppose que tu aimes

Origine blog.csdn.net/jojo_oulaoula/article/details/132452610
conseillé
Classement