**
疑似分散クラスタアップのHadoopのインストールと設定
JDKのインストール
https://blog.csdn.net/weixin_45873289/article/details/104945583
注:このリンクをして、JDKインストールパッケージHadoopのもあります
第二には、Hadoopのインストールを
入力してtar -zxvf hadoop-3.1.0.tar.gz
解凍Hadoopのインストールパッケージ(インストールパッケージの名前が正しいことに留意すべきである)*
解凍成功
第三のconfigureのHadoop環境 *
を設定し自由SSHログイン近いです
必要な秘密SSH-フリーのログインに提供された場合、クラスタの動作の後の時間に、私たちはそう、頻繁にマスターとスレーブをログに記録する必要があります。
次のコードを入力します。
ssh-keygen -t rsa -P ''
、鍵ペアを生成する搬送経路に直接クエリを保存し、鍵のペアを生成するにはパスワードなし:id_rsaとid_rsa.pubとを、の〜/ .sshディレクトリのデフォルトに保存されています。
次のアップ:id_rsa.pub鍵が中に入るための許可に追加されます。
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
そして、権利を変更します。
chmod 600 ~/.ssh/authorized_keys
次に、公開鍵と秘密鍵のペアの認証を開始し、RSA認証を有効にする必要があります。
vim /etc/ssh/sshd_config
あなたはsudoを使ってコマンドでの十分なアクセス許可を求められた場合は、
1.修改ssh配置:
RSAAuthentication yes # 启用 RSA 认证
PubkeyAuthentication yes # 启用公钥私钥配对认证方式
AuthorizedKeysFile %h/.ssh/authorized_keys # 公钥文件路径
再起動SSH
service ssh restart
さて、準備作業は、私たちはHadoopの設定ファイルを変更する開始する必要があり、行われてきた、と6つのファイルの合計を変更する必要があります。彼らは以下のとおりです。
-
hadoop-env.sh;
-
yarn-env.sh;
-
コア-site.xmlに。
-
HDFS-site.xmlの。
-
mapred-site.xmlに。
-
糸-site.xmlに。
- hadoop-env.shの構成:
編集hadoop-env.shファイルに次のコードを挿入:
**# The java implementation to use.**
export JAVA_HOME=/java/jdk1.8.0_171 #这里是你jdk的安装路径
- yarn-env.sh設定
次のコードの挿入エディタyarn-env.sh:
export JAVA_HOME=/java/jdk1.8.0_171 #这里也是jdk的路径
3.コア-site.xmlの設定
これは、我々は一時フォルダの場所にURIと名前ノードHDFSファイルを追加する必要がコアの構成ファイルで、この一時フォルダは以下に作成されます。
追加コードは、ラベルの設定ファイルの末尾に、次のとおりです。
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
<description>HDFS的URI,文件系统://namenode标识:端口号</description>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/hadoop/tmp</value>
<description>namenode上本地的hadoop临时文件夹</description>
</property>
</configuration>
4. HDFS-site.xml構成ファイル
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/usr/hadoop/hdfs/name</value>
<description>namenode上存储hdfs名字空间元数据 </description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/hadoop/hdfs/data</value>
<description>datanode上数据块的物理存储位置</description>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
5. mapred-site.xml構成ファイル
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
6. yarn-site.xml配置
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>192.168.2.10:8099</value>
<description>这个地址是mr管理界面的</description>
</property>
</configuration>
**
フォルダを作成します。
**
は/ usr / Hadoopの/ディレクトリの下にビルドTMPをHadoopのユーザーの操作を使用し、HDFS /名、HDFS /、我々は、設定ファイルでフォルダパスの一部を構成し、そして今、私たちはそれらを作成する必要があり 、データの次のコマンドを実行し、ディレクトリ:
mkdir -p /usr/hadoop/tmp
mkdir /usr/hadoop/hdfs
mkdir /usr/hadoop/hdfs/data
mkdir /usr/hadoop/hdfs/name
Hadoopのに環境変数を追加します。
Hadoopのに環境変数を追加します。
vim /etc/profile
ファイルの末尾に次のコードに挿入されます。
最後の変更を有効にします:source /etc/profile
検証
1. HDFSファイル形式、2スタートHadoopを、3 Hadoopのを確認するために:今の基本的な作業が行われている構成し、のみ次の手順を実行する必要があります。
フォーマット
Hadoopのにいくつかの基本的な情報を使用する前に、我々は、Hadoopのをフォーマットする必要があります。
次のコマンドを使用します。
hadoop namenode -format
次の画面は、成功したのに代わって表示されます
開始のHadoop
start-dfs.sh
以下のように入力コマンド・インタフェースが表示された場合:
/hadoop3.1/sbinパスで:
start-dfs.sh、stop-dfs.shトップ2つのファイルは、以下のパラメータを追加します
#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
また、以下を追加する必要があり、start-yarn.sh、stop-yarn.shトップ:
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
Start-dfs.shは再び起動し、そして最後にコマンドJPS検証を入力して、次のインタフェースの代わりに、成功が表示されます開始します:
オープンFirefoxブラウザをし、仮想マシンのグラフィカルインターフェイスに入力します。http:// localhost:Windowsマシン上で9870 /または入力http://仮想マシンのIPアドレス:9870 / Hadoopのは、管理ページにアクセスすることができます。
注:hadoop2.0版本开头的端口号是50070;hadoop3.0开头的是9870
ビルド成功