記事のディレクトリ
ツール
AlibabaCloud軽量アプリケーションサーバーの
パテ
軽量アプリケーションサーバーにログインします
Puttyを開き、IPアドレスを
入力し、ユーザー名とパスワードを入力します(デフォルトのユーザーはrootです)
新しいユーザーを作成する
1.ユーザーを作成します
useradd -d /home/hadoop -m hadoop
usermod -a -G root hadoop
passwd hadoop
2.ユーザー設定
sudoグループにユーザーを追加します
visudo
SSHをインストールし、SSHパスワードなしログインを設定します
sshをインストールします
sudo apt-get install openssh-server #安装SSH server
ssh localhost #登陆SSH,第一次登陆输入yes
exit #退出登录的ssh localhost
cd ~/.ssh/ #如果没法进入该目录,执行一次ssh localhost
ssh-keygen -t rsa
$ ssh-keygen -t rsaステートメントを入力
した後、Enterキーを3回続けて押す必要があります。その中で、最初のEnterキーは、後続のコマンド入力を容易にするためにKEYをデフォルトの場所に格納することです。2回目と3回目はパスフレーズを決定することですが、これはあまり関係がありません。2つのキャリッジリターンを入力した後、次の図に示すような出力がある場合は、成功します。
次に、次のように入力します。
cat ./id_rsa.pub >> ./authorized_keys #加入授权
ssh localhost #此时已不需密码即可登录localhost,
JDKをダウンロードしてインストールします
1.
ppa(ソース)インストールを介してjdkをインストールします
add-apt-repository ppa:webupd8team/java
apt-get update
apt-get install oracle-java8-installer
公式ウェブサイトからインストールパッケージをダウンロードします
推荐使用ppa方式安装
2.インストールが成功したかどうかを確認します
java-version 3.java
環境変数を構成します
sudo nano ~/.bashrc
テキストに次のコンテンツを追加します
export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
追加された環境変数を有効にする
source ~/.bashrc
Hadoopをダウンロードしてインストールします
1.ダウンロード
の各バージョンのインストールパッケージHadoopのリンクを表示するにHadoopを:
http://mirrors.hust.edu.cn/apache/hadoop/common/
Hadoop3.3.0インストールパッケージのリンク:のhttp://mirrors.hust。 edu.cn/ apache / hadoop / common / hadoop-3.3.0 / hadoop-3.3.0.tar.gz
#在root的家目录下
wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz
2.解凍
ダウンロードしたインストールパッケージを/ usr / localディレクトリに解凍し、フォルダの名前をhadoopに変更します。
sudo tar -zxf ~/Downloads/hadoop-3.3.0.tar.gz -C /usr/local #解压到/usr/local中
cd /usr/local/
sudo mv ./hadoop-3.3.0/ ./hadoop #将文件夹名改为hadoop
sudo chown -R hadoop ./hadoop #修改文件权限 这一步一定要做,因为权限很重要
3.Hadoopが正しくインストールされているかどうかを確認します
./hadoop/bin/hadoop version
4.Hadoop環境変数を構成します
sudo nano ~/.bashrc
テキストに次のコンテンツを追加します
export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
追加された環境変数を有効にする
source ~/.bashrc
Hadoop疑似分散クラスターを構築する
Hadoopは、単一のノード上で疑似分散方式で実行できます。Hadoopプロセスは別個のJavaプロセスとして実行されます。ノードは、NameNodeとDataNodeの両方として機能します。同時に、HDFSでファイルを読み取ります。
1.core-site.xmlを変更します
sudo nano /usr/local/hadoop/etc/hadoop/core-site.xml
コンテンツを追加する:
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
2.hdfs-site.xmlを変更します
sudo nano /usr/local/hadoop/etc/hadoop/hdfs-site.xml
コンテンツを追加する:
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
<property>
<name>dfs.namenode.http.address</name>
<value>slave1:9870</value>
</property>
3.hadoop-env.shを構成します
sudo nano /usr/local/hadoop/etc/hadoop/hadoop-env.sh
コンテンツを追加する
export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export HADOOP_HOME=/usr/local/hadoop
4.NameNodeのフォーマット
./bin/hdfs namenode -format
5.namenodeおよびdatanodeプロセスを開始します
./sbin/start-dfs.sh
./sbin/start-yarn.sh
jps
次のエラーが発生しました。
解決策:
/ hadoop / sbinパスの下:
start-dfs.shファイルとstop-dfs.shファイルの先頭に次のパラメーターを追加します。
#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
また、start-yarn.shとstop-yarn.shも、上部に次を追加する必要があります。
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
次のエラーが表示されます
解決策
rootでSSHパスワードなしログインを設定します。方法はhadoopの設定と同じです。
実行結果
6.hadoopの表示①
ポートを開くAlibabaCloud
サーバーコンソール->ファイアウォールはデフォルトで3つのポート80、443、22のみを開きます。手動で9870、9000ポートを開く必要があります
②ファイアウォールを確認します
ufw status verbose
# 若未关闭,则关闭防火墙(需要监听端口,内网,全关掉不要紧)
sudo ufw disable
ブラウザにパブリックネットワークip:9870を入力し、dfsページにジャンプします
参照リンク
Alibaba Cloud(軽量Ubuntu 16.04)サーバーはHadoop疑似分散クラスターを
構築し、pi値の計算を実現します。Ubuntu16.04環境でHadoop3.0.3疑似分散クラスターを構築
します。Ubuntu16.04(疑似分散環境)でのhadoopのインストールと構成
Alibabaクラウド軽量アプリケーションサーバーcentos7ビルドhadoop疑似分散クラスター
50070hadoopのポートはWebページソリューションにアクセスできません-概要