Hadoop構成のインストール

1.インストールパッケージを解凍します

[root @localhostソフトウェア] #tar -zxvf hadoop-2.6.0-cdh5.14.2.tar.gz

2.名前を変更します。

[root @localhostソフトウェア] #mv hadoop-2.6.0-cdh5.14.2 hadoop

3.Hadoopフォルダーの下にhadoopを入力します

[root @ localhost software] #cd hadoop
[root @ localhost hadoop] #cd etc / Hadoop

4. vihadoop-env.shファイルを変更します

[root @ hadoop5 hadoop] #vi hadoop-env.sh

#export JAVA_HOME=${JAVA_HOME}
export JAVA_HOME=/root/software/jdk1.8.0_221

5. vicore-site.xmlファイルを変更します

[root @ hadoop5 hadoop] #vi core-site.xml

<configuration>
 <property>
   <name>fs.defaultFS</name>
   <value>hdfs://hadoop5:9000</value>   #修改成本主机的名称
 </property>
 <property>
   <name>hadoop.tmp.dir</name>
   <value>/root/software/hadoop/tmp</value>
 </property>
 <property>
   <name>hadoop.proxyuser.root.hosts</name>
   <value>*</value>
 </property>
 <property>
   <name>hadoop.proxyuser.root.groups</name>
   <value>*</value>
  </property>
</configuration> 

6.hdfs-site.xmlファイルを変更します。

[root @ localhost hadoop] #vi hdfs-site.xml

<configuration>
 <property>
  <name>dfs.replication</name>
  <value>1</value>
 </property>
</configuration>

7. vimapred-site.xml.templateファイルを変更します。

[root @ localhost hadoop] #vi mapred-site.xml.template

<configuration>
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>
</configuration>

構成後に名前を変更します。

mv mapred-site.xml.template mapred-site.xml

8. Vi / etc / profileファイルを変更します。

[root @ localhost hadoop] #vi /etc.profile

export JAVA_HOME=/root/software/jdk1.8.0_221
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin/:/root/bin
export HADOOP_HOME=/root/software/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

9.構成ファイルを有効にします。

[root @ localhost hadoop] #source / etc / profile

10.HDFSをフォーマットします

[root @ localhost hadoop] #hdfs namenode -format

11.ソフトウェアのhadoopファイルに戻ります

[root @ localhost hadoop]#cd…/…

12.入力:ll

[root @ localhost hadoop] #ll

表示されます:

drwxr-xr-x.  2 1106 4001   137 Mar 28  2018 bin
drwxr-xr-x.  2 1106 4001   166 Mar 28  2018 bin-mapreduce1
drwxr-xr-x.  3 1106 4001  4096 Mar 28  2018 cloudera
drwxr-xr-x.  6 1106 4001   109 Mar 28  2018 etc
drwxr-xr-x.  5 1106 4001    43 Mar 28  2018 examples
drwxr-xr-x.  3 1106 4001    28 Mar 28  2018 examples-mapreduce1
drwxr-xr-x.  2 1106 4001   106 Mar 28  2018 include
drwxr-xr-x.  3 1106 4001    20 Mar 28  2018 lib
drwxr-xr-x.  3 1106 4001   261 Mar 28  2018 libexec
-rw-r--r--.  1 1106 4001 85063 Mar 28  2018 LICENSE.txt
drwxr-xr-x.  3 root root  4096 Mar 14 15:46 logs
-rw-r--r--.  1 1106 4001 14978 Mar 28  2018 NOTICE.txt
-rw-r--r--.  1 1106 4001  1366 Mar 28  2018 README.txt
drwxr-xr-x.  3 1106 4001  4096 Mar 28  2018 sbin
drwxr-xr-x.  4 1106 4001    31 Mar 28  2018 share
drwxr-xr-x. 18 1106 4001  4096 Mar 28  2018 src
drwxr-xr-x.  4 root root    37 Mar 14 15:46 tmp

13、開始

[root @ localhost hadoop]#start-all.sh
[root @ localhost hadoop] #JPS

表示されます:

29942 ResourceManager
30232 Jps
30029 NodeManager
29551 NameNode
29663 DataNode
29807 SecondaryNameNode

14.これで構成が完了しました

15. JPSを入力した後、構成エラーがあり、ファイルが欠落している場合は、ログをチェックしてエラーを見つけます。

[root @ localhost hadoop] #tail -50f
logs / hadoop-root-datanode-hadoop2.log#
対応する欠落しているファイル名に変更します

おすすめ

転載: blog.csdn.net/qq_42005540/article/details/114796413