CentOS7 + Hadoop2.7構成プロセス(非インストールチュートリアル)

CentOS7 + Hadoop2.7構成プロセス(非インストールチュートリアル)


(オプション)時刻同期

私たちは仮想マシンのクローンであるため、この手順は省略されています

yum install ntp
systemctl start ntpd
systemctl enable ntpd

ホスト名を構成する

#直接永久生效
hostnamectl set-hostname master

静的IPとネットワークマッピングを修正しました

デフォルトはDHCP、つまり動的IP割り当てです。DHCPは、グループファイルの単語で紹介されています。静的IPになる必要があります。つまり、静的に調整する必要があります。


NAT8モード。

添加`/etc/syconfig/network-scripts/ifcfg-ens33`网卡配置文件


NETMASK:指定子网掩码(默认255.255.255.0)

GETWAY:网关  去VMware菜单栏编辑--》虚拟网络编辑器--》选择 “VMnet8 NAT 模式”--》点击下方“NAT设置”按钮,弹出NAT设置窗口查看网关IP

DNS1:指定上网用的DNS IP地址,114.114.114.114

ifconfigコマンドのens **は、調べたいネットワークカードです。

ifconfig
第一步:cd /etc/sysconfig/network-scripts

第二步:vim ifcfg-ens33

        1 TYPE="Ethernet"
        2 PROXY_METHOD="none"
        3 BROWSER_ONLY="no"
        4 BOOTPROTO="static"  -------> 默认是DHCP,修改为static
        5 DEFROUTE="yes"
        6 IPV4_FAILURE_FATAL="no"
        7 IPV6INIT="yes"
        8 IPV6_AUTOCONF="yes"
        9 IPV6_DEFROUTE="yes"
       10 IPV6_FAILURE_FATAL="no"
       11 IPV6_ADDR_GEN_MODE="stable-privacy"
       12 NAME="ens33"
       13 UUID="db2a7b20-7b5a-40ad-9879-f7543bbc5ffe"
       14 DEVICE="ens33"
       15 ONBOOT="yes"
       16 IPV6_PRIVACY="no"
       17 ZONE=public
       18 IPADDR=192.168.175.134  ----------> 设置静态ip地址

       19 NETMASK=255.255.255.0 ------> 子网掩码
    
       20 GATEWAY=192.168.175.2 -------> 网关

       21 DNS1=114.114.114.114 -------> 域名解析器

第三步:systemctl restart network -----> 重启网络


グラフィカルインターフェイスの直下で設定できます

ens33を解かない

systemctl stop NetworkManager                 临时关闭
systemctl disable NetworkManager              永久关闭网络管理命令
systemctl start network.service               开启网络服务

ファイアウォールをオフにします

systemctl stop firewalld.service
systemctl disable firewalld
firewall-cmd --state 
firewall-cmd --reload

デスクトップをお持ちの場合は、直接

setup

対応するようにホストリストを構成します

vi etc/hosts

192.168.79.129 master
192.168.79.130 node1
192.168.79.130 node2


用ping命令来测试

SSHパスワードなしのログイン

これは相互機密です


进入node1:

[root@node1 ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa   #获得自己的密钥。

[root@node1 ~]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  #将自己的密钥添加到自己的私钥里。做到免密钥。

[root@node1 ~]# scp -r ~/.ssh/id_dsa.pub root@node2:/tmp/    #将node1的密钥传到node2服务器的tmp中。

进入node2:

[root@node2 ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa   #获得自己的密钥。

[root@node2 ~]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  #将自己的密钥添加到自己的私钥里。做到免密钥。

[root@node2 ~]# scp -r ~/.ssh/id_dsa.pub root@node1:/tmp/    #将node2的密钥传到node1服务器的tmp中。

添加密钥:

[root@node1 ~]# cat /tmp/id_dsa.pub >> ~/.ssh/authorized_keys  #将node1的密钥添加到自己的私钥里。

[root@node2 ~]# cat /tmp/id_dsa.pub >> ~/.ssh/authorized_keys  #将node1的密钥添加到自己的私钥里。

测试:

[root@node1 ~]#  ssh node2  #不用输入密码直接进入node2

[root@node2 ~]#  ssh node1  #不用输入密码直接进入node1

Javaをインストールし、パスを覚えておく必要があります

#一般放在/usr/local/java下

#环境变量一般放在/etc/profile.d/下
java.sh

export JAVA_HOME=/usr/local/java
export PATH=$PATH:$JAVA_HOME/bin
export JRE_HOME=/usr/local/java/jre
export CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib

source /etc/profile

直接scpコピー3コピー

scp -r /usr/lacao/java/ root@node1:/usr/local/
scp -r /usr/lacao/java/ root@node2:/usr/local/

scp  java.sh root@node1:/etc/profile.d/java.sh

Hadoop環境変数を構成する

vim /etc/profile.d/hadoop.sh        #配置环境变量

export HADOOP_HOME=/home/hfut/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

同様に、scpコピー3コピー

Hadoop関連の構成ファイル

関連するすべての構成は、hadoop / etc /の下で実行されます。

3つのコピーをコピーするようにscpを構成します

hadoop-env.sh

core-site.xml

hdfs-site.xml

糸-site.xml

実際、それらのほとんどはデフォルトのアイテムであり、価値がありません。それは価値がない可能性があります。実際のクラスターも自動展開です。

クラスターを開始します

初めて

hdfs namenode -format

クラスターを開始します

start-all.sh

クラスターをシャットダウンします

stop-all.sh

env.sh

core-site.xml

hdfs-site.xml

糸-site.xml

実際、それらのほとんどはデフォルトのアイテムであり、価値がありません。それは価値がない可能性があります。実際のクラスターも自動展開です。

クラスターを開始します

初めて

hdfs namenode -format

クラスターを開始します

start-all.sh

クラスターをシャットダウンします

stop-all.sh

おすすめ

転載: blog.csdn.net/qq_45175218/article/details/108876098