AlibabaCloud軽量アプリケーションサーバーUbuntu18.04がhadoop疑似分散クラスターを構築

ツール

AlibabaCloud軽量アプリケーションサーバーの
パテ

軽量アプリケーションサーバーにログインします

Puttyを開き、IPアドレスを
ここに画像の説明を挿入
入力し、ユーザー名とパスワードを入力します(デフォルトのユーザーはrootです)
ここに画像の説明を挿入

新しいユーザーを作成する

1.ユーザーを作成します

useradd -d /home/hadoop -m hadoop
usermod -a -G root hadoop
passwd hadoop

ここに画像の説明を挿入
2.ユーザー設定
sudoグループにユーザーを追加します

visudo

ここに画像の説明を挿入

SSHをインストールし、SSHパスワードなしログインを設定します

sshをインストールします

sudo apt-get install openssh-server   #安装SSH server
ssh localhost                         #登陆SSH,第一次登陆输入yes
exit                                  #退出登录的ssh localhost
cd ~/.ssh/                            #如果没法进入该目录,执行一次ssh localhost
ssh-keygen -t rsa

$ ssh-keygen -t rsaステートメントを入力
ここに画像の説明を挿入
した後、Enterキーを3回続けて押す必要があります。その中で、最初のEnterキーは、後続のコマンド入力を容易にするためにKEYをデフォルトの場所に格納することです。2回目と3回目はパスフレーズを決定することですが、これはあまり関係がありません。2つのキャリッジリターンを入力した後、次の図に示すような出力がある場合は、成功します。
ここに画像の説明を挿入次に、次のように入力します。

cat ./id_rsa.pub >> ./authorized_keys #加入授权
ssh localhost                         #此时已不需密码即可登录localhost,

JDKをダウンロードしてインストールします

1.
ppa(ソース)インストールを介してjdkをインストールします

add-apt-repository ppa:webupd8team/java
apt-get update
apt-get install oracle-java8-installer

公式ウェブサイトからインストールパッケージをダウンロードします

推荐使用ppa方式安装

2.インストールが成功したかどうかを確認します
java-version 3.java
ここに画像の説明を挿入
環境変数を構成します

sudo nano ~/.bashrc

ここに画像の説明を挿入
テキストに次のコンテンツを追加します

export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

追加された環境変数を有効にする

source ~/.bashrc

Hadoopをダウンロードしてインストールします

1.ダウンロード
の各バージョンのインストールパッケージHadoopのリンクを表示するにHadoopを:
http://mirrors.hust.edu.cn/apache/hadoop/common/
Hadoop3.3.0インストールパッケージのリンク:のhttp://mirrors.hust。 edu.cn/ apache / hadoop / common / hadoop-3.3.0 / hadoop-3.3.0.tar.gz

#在root的家目录下
wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz

ここに画像の説明を挿入
2.解凍
ダウンロードしたインストールパッケージを/ usr / localディレクトリに解凍し、フォルダの名前をhadoopに変更します。

sudo tar -zxf ~/Downloads/hadoop-3.3.0.tar.gz -C /usr/local  #解压到/usr/local中
cd /usr/local/
sudo mv ./hadoop-3.3.0/ ./hadoop  #将文件夹名改为hadoop
sudo chown -R hadoop ./hadoop     #修改文件权限  这一步一定要做,因为权限很重要

ここに画像の説明を挿入
3.Hadoopが正しくインストールされているかどうかを確認します

./hadoop/bin/hadoop version

ここに画像の説明を挿入
4.Hadoop環境変数を構成します

sudo nano ~/.bashrc

テキストに次のコンテンツを追加します

export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

追加された環境変数を有効にする

source ~/.bashrc

Hadoop疑似分散クラスターを構築する

Hadoopは、単一のノード上で疑似分散方式で実行できます。Hadoopプロセスは別個のJavaプロセスとして実行されます。ノードは、NameNodeとDataNodeの両方として機能します。同時に、HDFSでファイルを読み取ります。
1.core-site.xmlを変更します

sudo nano /usr/local/hadoop/etc/hadoop/core-site.xml

コンテンツを追加する:

	<property>
             <name>hadoop.tmp.dir</name>
             <value>file:/usr/local/hadoop/tmp</value>
             <description>Abase for other temporary directories.</description>
        </property>
        <property>
             <name>fs.defaultFS</name>
             <value>hdfs://localhost:9000</value>
        </property>

ここに画像の説明を挿入
2.hdfs-site.xmlを変更します

sudo nano /usr/local/hadoop/etc/hadoop/hdfs-site.xml

コンテンツを追加する:

 	    <property>
             <name>dfs.replication</name>
             <value>1</value>
        </property>
        <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
             <name>dfs.datanode.data.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
        <property>
              <name>dfs.namenode.http.address</name>
              <value>slave1:9870</value>
         </property>

ここに画像の説明を挿入
3.hadoop-env.shを構成します

sudo nano /usr/local/hadoop/etc/hadoop/hadoop-env.sh

ここに画像の説明を挿入
コンテンツを追加する

export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export HADOOP_HOME=/usr/local/hadoop

4.NameNodeのフォーマット

./bin/hdfs namenode -format

ここに画像の説明を挿入
5.namenodeおよびdatanodeプロセスを開始します

./sbin/start-dfs.sh
./sbin/start-yarn.sh
jps

次のエラーが発生しました。
ここに画像の説明を挿入
解決策:
/ hadoop / sbinパスの下:
start-dfs.shファイルとstop-dfs.shファイルの先頭に次のパラメーターを追加します。

#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

また、start-yarn.shとstop-yarn.shも、上部に次を追加する必要があります。

#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

次のエラーが表示されます
ここに画像の説明を挿入
解決策

rootでSSHパスワードなしログインを設定します。方法はhadoopの設定と同じです。

実行結果
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入
6.hadoopの表示①
ポートを開くAlibabaCloud
サーバーコンソール->ファイアウォールはデフォルトで3つのポート80、443、22のみを開きます。手動で9870、9000ポートを開く必要があります
ここに画像の説明を挿入
②ファイアウォールを確認します

ufw status verbose

ここに画像の説明を挿入

# 若未关闭,则关闭防火墙(需要监听端口,内网,全关掉不要紧)
sudo ufw disable

ブラウザにパブリックネットワークip:9870を入力し、dfsページにジャンプします
ここに画像の説明を挿入

参照リンク

Alibaba Cloud(軽量Ubuntu 16.04)サーバーはHadoop疑似分散クラスターを
構築し、pi値の計算を実現します。Ubuntu16.04環境でHadoop3.0.3疑似分散クラスターを構築
します。Ubuntu16.04(疑似分散環境)でのhadoopのインストールと構成
Alibabaクラウド軽量アプリケーションサーバーcentos7ビルドhadoop疑似分散クラスター
50070hadoopのポートはWebページソリューションにアクセスできません-概要

おすすめ

転載: blog.csdn.net/qq_43279579/article/details/114734065