Hadoopのインストールと疑似分散クラスタセットアップ - (II)は、開発環境を設定します

**

疑似分散クラスタアップのHadoopのインストールと設定

JDKのインストール
https://blog.csdn.net/weixin_45873289/article/details/104945583
注:このリンクをして、JDKインストールパッケージHadoopのもあります
第二には、Hadoopのインストールを
ここに画像を挿入説明
入力してtar -zxvf hadoop-3.1.0.tar.gz解凍Hadoopのインストールパッケージ(インストールパッケージの名前が正しいことに留意すべきである)*
ここに画像を挿入説明
解凍成功
第三のconfigureのHadoop環境 *
を設定し自由SSHログイン近いです
必要な秘密SSH-フリーのログインに提供された場合、クラスタの動作の後の時間に、私たちはそう、頻繁にマスターとスレーブをログに記録する必要があります。
次のコードを入力します。

 ssh-keygen -t rsa -P ''

、鍵ペアを生成する搬送経路に直接クエリを保存し、鍵のペアを生成するにはパスワードなし:id_rsaとid_rsa.pubとを、の〜/ .sshディレクトリのデフォルトに保存されています。

次のアップ:id_rsa.pub鍵が中に入るための許可に追加されます。

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

そして、権利を変更します。

chmod 600 ~/.ssh/authorized_keys

次に、公開鍵と秘密鍵のペアの認証を開始し、RSA認証を有効にする必要があります。

vim /etc/ssh/sshd_config あなたはsudoを使ってコマンドでの十分なアクセス許可を求められた場合は、

	1.修改ssh配置:
RSAAuthentication yes # 启用 RSA 认证
PubkeyAuthentication yes # 启用公钥私钥配对认证方式
AuthorizedKeysFile %h/.ssh/authorized_keys # 公钥文件路径

再起動SSH

			service ssh restart

さて、準備作業は、私たちはHadoopの設定ファイルを変更する開始する必要があり、行われてきた、と6つのファイルの合計を変更する必要があります。彼らは以下のとおりです。

  • hadoop-env.sh;

  • yarn-env.sh;

  • コア-site.xmlに。

  • HDFS-site.xmlの。

  • mapred-site.xmlに。

  • 糸-site.xmlに。

  1. hadoop-env.shの構成:
    ここに画像を挿入説明
    編集hadoop-env.shファイルに次のコードを挿入:
**# The java implementation to use.**    
export JAVA_HOME=/java/jdk1.8.0_171   #这里是你jdk的安装路径
  1. yarn-env.sh設定
    次のコードの挿入エディタyarn-env.sh:
 export JAVA_HOME=/java/jdk1.8.0_171  #这里也是jdk的路径

3.コア-site.xmlの設定
これは、我々は一時フォルダの場所にURIと名前ノードHDFSファイルを追加する必要がコアの構成ファイルで、この一時フォルダは以下に作成されます。

追加コードは、ラベルの設定ファイルの末尾に、次のとおりです。

<configuration>  
 <property>  
    <name>fs.default.name</name>  
    <value>hdfs://localhost:9000</value>  
    <description>HDFSURI,文件系统://namenode标识:端口号</description>  
</property>  
<property>  
    <name>hadoop.tmp.dir</name>  
    <value>/usr/hadoop/tmp</value>  
    <description>namenode上本地的hadoop临时文件夹</description>  
</property>  
</configuration>  

4. HDFS-site.xml構成ファイル

<configuration>  
<property>  
    <name>dfs.name.dir</name>  
    <value>/usr/hadoop/hdfs/name</value>  
    <description>namenode上存储hdfs名字空间元数据 </description>   
</property>  
<property>  
    <name>dfs.data.dir</name>  
    <value>/usr/hadoop/hdfs/data</value>  
    <description>datanode上数据块的物理存储位置</description>  
</property>  
<property>  
    <name>dfs.replication</name>  
    <value>1</value>  
</property>  
</configuration>  

5. mapred-site.xml構成ファイル

	<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

6. yarn-site.xml配置

 <configuration>  
<property>  
        <name>yarn.nodemanager.aux-services</name>  
        <value>mapreduce_shuffle</value>  
</property>  
<property>  
        <name>yarn.resourcemanager.webapp.address</name>  
        <value>192.168.2.10:8099</value>  
        <description>这个地址是mr管理界面的</description>  
</property>  
</configuration> 
			**

フォルダを作成します。

**
は/ usr / Hadoopの/ディレクトリの下にビルドTMPをHadoopのユーザーの操作を使用し、HDFS /名、HDFS /、我々は、設定ファイルでフォルダパスの一部を構成し、そして今、私たちはそれらを作成する必要があり 、データの次のコマンドを実行し、ディレクトリ:

mkdir -p /usr/hadoop/tmp 
mkdir /usr/hadoop/hdfs 
mkdir /usr/hadoop/hdfs/data 
mkdir /usr/hadoop/hdfs/name

Hadoopのに環境変数を追加します。

Hadoopのに環境変数を追加します。

vim /etc/profile

ファイルの末尾に次のコードに挿入されます。

ここに画像を挿入説明

最後の変更を有効にします:source /etc/profile

検証

1. HDFSファイル形式、2スタートHadoopを、3 Hadoopのを確認するために:今の基本的な作業が行われている構成し、のみ次の手順を実行する必要があります。

フォーマット

Hadoopのにいくつかの基本的な情報を使用する前に、我々は、Hadoopのをフォーマットする必要があります。

次のコマンドを使用します。

hadoop namenode -format

次の画面は、成功したのに代わって表示されます
ここに画像を挿入説明
開始のHadoop

start-dfs.sh

以下のように入力コマンド・インタフェースが表示された場合:
ここに画像を挿入説明/hadoop3.1/sbinパスで:
start-dfs.sh、stop-dfs.shトップ2つのファイルは、以下のパラメータを追加します

#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

また、以下を追加する必要があり、start-yarn.sh、stop-yarn.shトップ:

#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

Start-dfs.shは再び起動し、そして最後にコマンドJPS検証を入力して、次のインタフェースの代わりに、成功が表示されます開始します:
ここに画像を挿入説明
オープンFirefoxブラウザをし、仮想マシンのグラフィカルインターフェイスに入力します。http:// localhost:Windowsマシン上で9870 /または入力http://仮想マシンのIPアドレス:9870 / Hadoopのは、管理ページにアクセスすることができます。

:hadoop2.0版本开头的端口号是50070;hadoop3.0开头的是9870

ここに画像を挿入説明
ビルド成功

リリース3元の記事 ウォンの賞賛0 ビュー190

おすすめ

転載: blog.csdn.net/weixin_45873289/article/details/105374748