Processus de configuration CentOS7 + Hadoop2.7 (tutoriel sans installation)

Processus de configuration CentOS7 + Hadoop2.7 (tutoriel sans installation)


(Facultatif) Synchronisation de l'heure

Parce que nous sommes un clone de machine virtuelle, cette étape est omise

yum install ntp
systemctl start ntpd
systemctl enable ntpd

Configurer le nom d'hôte

#直接永久生效
hostnamectl set-hostname master

IP statique fixe et mappage réseau

La valeur par défaut est DHCP, c'est-à-dire l'allocation IP dynamique. DHCP est introduit en un mot dans le fichier de groupe. Nous devons devenir une adresse IP statique, c'est-à-dire l'ajuster à statique.


En mode NAT8.

添加`/etc/syconfig/network-scripts/ifcfg-ens33`网卡配置文件


NETMASK:指定子网掩码(默认255.255.255.0)

GETWAY:网关  去VMware菜单栏编辑--》虚拟网络编辑器--》选择 “VMnet8 NAT 模式”--》点击下方“NAT设置”按钮,弹出NAT设置窗口查看网关IP

DNS1:指定上网用的DNS IP地址,114.114.114.114

ifconfigL'ens ** dans la commande est la carte réseau que nous voulons examiner.

ifconfig
第一步:cd /etc/sysconfig/network-scripts

第二步:vim ifcfg-ens33

        1 TYPE="Ethernet"
        2 PROXY_METHOD="none"
        3 BROWSER_ONLY="no"
        4 BOOTPROTO="static"  -------> 默认是DHCP,修改为static
        5 DEFROUTE="yes"
        6 IPV4_FAILURE_FATAL="no"
        7 IPV6INIT="yes"
        8 IPV6_AUTOCONF="yes"
        9 IPV6_DEFROUTE="yes"
       10 IPV6_FAILURE_FATAL="no"
       11 IPV6_ADDR_GEN_MODE="stable-privacy"
       12 NAME="ens33"
       13 UUID="db2a7b20-7b5a-40ad-9879-f7543bbc5ffe"
       14 DEVICE="ens33"
       15 ONBOOT="yes"
       16 IPV6_PRIVACY="no"
       17 ZONE=public
       18 IPADDR=192.168.175.134  ----------> 设置静态ip地址

       19 NETMASK=255.255.255.0 ------> 子网掩码
    
       20 GATEWAY=192.168.175.2 -------> 网关

       21 DNS1=114.114.114.114 -------> 域名解析器

第三步:systemctl restart network -----> 重启网络


Peut être réglé directement sous l'interface graphique

Résoudre aucun ens33

systemctl stop NetworkManager                 临时关闭
systemctl disable NetworkManager              永久关闭网络管理命令
systemctl start network.service               开启网络服务

Désactivez le pare-feu

systemctl stop firewalld.service
systemctl disable firewalld
firewall-cmd --state 
firewall-cmd --reload

Si vous avez un bureau, vous pouvez directement

setup

Configurer la liste d'hôtes pour qu'elle corresponde

vi etc/hosts

192.168.79.129 master
192.168.79.130 node1
192.168.79.130 node2


用ping命令来测试

Connexion sans mot de passe SSH

C'est la confidentialité mutuelle


进入node1:

[root@node1 ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa   #获得自己的密钥。

[root@node1 ~]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  #将自己的密钥添加到自己的私钥里。做到免密钥。

[root@node1 ~]# scp -r ~/.ssh/id_dsa.pub root@node2:/tmp/    #将node1的密钥传到node2服务器的tmp中。

进入node2:

[root@node2 ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa   #获得自己的密钥。

[root@node2 ~]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  #将自己的密钥添加到自己的私钥里。做到免密钥。

[root@node2 ~]# scp -r ~/.ssh/id_dsa.pub root@node1:/tmp/    #将node2的密钥传到node1服务器的tmp中。

添加密钥:

[root@node1 ~]# cat /tmp/id_dsa.pub >> ~/.ssh/authorized_keys  #将node1的密钥添加到自己的私钥里。

[root@node2 ~]# cat /tmp/id_dsa.pub >> ~/.ssh/authorized_keys  #将node1的密钥添加到自己的私钥里。

测试:

[root@node1 ~]#  ssh node2  #不用输入密码直接进入node2

[root@node2 ~]#  ssh node1  #不用输入密码直接进入node1

Java doit être installé et mémoriser le chemin

#一般放在/usr/local/java下

#环境变量一般放在/etc/profile.d/下
java.sh

export JAVA_HOME=/usr/local/java
export PATH=$PATH:$JAVA_HOME/bin
export JRE_HOME=/usr/local/java/jre
export CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib

source /etc/profile

Copie directe SCP 3 copies

scp -r /usr/lacao/java/ root@node1:/usr/local/
scp -r /usr/lacao/java/ root@node2:/usr/local/

scp  java.sh root@node1:/etc/profile.d/java.sh

Configurer les variables d'environnement Hadoop

vim /etc/profile.d/hadoop.sh        #配置环境变量

export HADOOP_HOME=/home/hfut/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

De même, scp copie 3 copies

Fichiers de configuration liés à Hadoop

Toutes les configurations pertinentes sont effectuées sous hadoop / etc /

Configurer scp pour copier 3 copies

hadoop-env.sh

core-site.xml

hdfs-site.xml

yarn-site.xml

En fait, la plupart d'entre eux sont des éléments par défaut, qui n'en valent pas la peine. Cela peut être indigne. Le vrai cluster est également le déploiement automatisé.

Démarrez le cluster

la première fois

hdfs namenode -format

Démarrez le cluster

start-all.sh

Arrêtez le cluster

stop-all.sh

env.sh

core-site.xml

hdfs-site.xml

yarn-site.xml

En fait, la plupart d'entre eux sont des éléments par défaut, qui n'en valent pas la peine. Cela peut être indigne. Le vrai cluster est également le déploiement automatisé.

Démarrez le cluster

la première fois

hdfs namenode -format

Démarrez le cluster

start-all.sh

Arrêtez le cluster

stop-all.sh

Je suppose que tu aimes

Origine blog.csdn.net/qq_45175218/article/details/108876098
conseillé
Classement