CentOS6.5はHadoop、Hbaseをインストールします

CentOS6.5はHadoop、Hbaseをインストールします

CentOS6.5はHadoop、Hbaseをインストールします

1つは、CentOS6.5をインストールする

VMWareを使用してCentOSをインストールする

2つ目は、ユーザーとグループを作成する

groupadd hadoop
useradd hadoop -g hadoop
passwd hadoop
id hadoop

3、インストールパスを計画します

–注:パス権限の変更
a。
サブパスをインストールパス/ hadoopのルートパスの下に配置します。たとえば、hbaseのインストールパスは/ hadoop / hbaseです
。b。一時ディレクトリ
/ hadoop / tmpは一時ファイルを格納します
。c。
使用されるソフトウェアディレクトリ/ソフトウェアが一般的に使用されます。インストールソフトウェア

mkdir / hadoop
mkdir / software
mkdir / hadoop / tmp

4.インストールソフトウェアをアップロードまたはコピーします

1.FTP
使用します
。2。VMwareを使用してファイルを共有します。chown-Rhadoop:hadoop hadoop
chown -R hadoop:hadoopソフトウェア

5、ファイアウォールとSELinuxをオフにします

ファイアウォールをオフ1.電源を入れ
、一時的にファイアウォールを無効にする
サービスのiptablesを停止
恒久的にオフにする
オフのchkconfig iptablesの
SELinuxのオフ2.電源を入れ
SELinuxはLinuxのセキュリティ強化ツールです
変更設定ファイル
のviの/ etc /のsysconfig / selinuxを
変更:SELINUX =無効
サービスは、ステータスをiptablesの現在のiptablesサービスを表示することができます状態。
ただし、サービスが実行されている場合でも、ファイアウォールが機能しない可能性があります。ファイアウォール
を開始および閉じるコマンドについて説明するには、ここでファイアウォールルール設定iptables-Lを確認する必要があります


  1. Openを再起動した後に有効になり
    ます:chkconfig iptables on Close:chkconfig iptables off
  2. すぐに有効になり、再起動すると無効になります。
    開く:service iptables start
    閉じる:service iptablesstop

6.JDKをインストールします

tar -zxf jdk-7u79-linux-i586.gz-C…/ hadoop /
vi / etc / profile
########################### ############
export JAVA_HOME = / hadoop / jdk1.7.0_79
export PATH = PATH:PATH:P A T H JAVA_HOME / bin

セブン、ホストを計画する

VMWareを使用して、
マスター
192.168.1.2
slave1 192.168.1.3 slave2192.168.1.4のクローンを作成します

8、ホスト名とIPを変更します

a。ホスト名を変更します
vi / etc / sysconfig / network
HOSTNAME = master
HOSTNAME =
slave1 HOSTNAME =slave2b。IPを
変更します
vi / etc / sysconfig / network-scripts / ifcfg-eth0
192.168.1.2 master
192.168.1.3 slave1
192.168.1.4 slave2
サービスネットワークの再起動
c。マッピング関係の変更
vi / etc / hosts192.168.1.2
マスター
192.168.1.3slave1
192.168.1.4slave2
サービスネットワークの再起動
d。最後の再起動LINUX

9、セキュリティで保護されていないSSHログインを構成します

a。SSHがインストールされていない場合は、事前に
ssh-Vをインストールする必要がありますインストールされている
ssh127.0.0.1
netstat -a | moreのバージョンをチェックして、正常
起動したかどうかを確認します。表示された場合:
tcp 0 0 *:ssh LISTEN

B。キー情報を生成します。
ホームディレクトリに
suコマンドのHadoop
CD〜
LS -la
のssh-keygenは-t rsaの-N ""
LS -la
のCDの.ssh /
-la lsの
二つのファイルid_rsaとid_rsa.pubた
猫id_rsaとのHadoopユーザーのホームディレクトリ内の.PUB >> authorized_keysに
C。他のノードに追加し
、それぞれ、他のノードでは
、SU-Hadoopの
MKDIRの.ssh
のCDの.ssh /
VIのauthorized_keysが
直接キー情報コピー
マスターノードがスレーブノードにログインできるかどうか、D。試験
スレーブノード権限をクリックしますmkdir〜
/ .ssh
chmod 700〜 / .ssh
1)hadoopユーザー
chmod 600〜/ .ssh / authorized_keysの下のファイル「authorized_keys」を変更します
2)rootユーザーを使用してSSH構成を設定します
vi / etc / ssh / sshd_config
RSAAuthentication yes# RSA認証を有効にする
PubkeyAuthenticationはい#公開キー秘密キーペアリング認証方法を有効にする
AuthorizedKeysFile .ssh / authorized_keys#公開キーファイルパス
SSHサービス
サービスの再起動sshd restart

10.Hadoopをインストールします

a。
メインノードにHadoopインストールします1.メインノードでファイル
tar-zxf hadoop-2.6.0.tar.gz-C…/ hadoop /を解凍します
2.hadoop-2.6.0 / etc / hadoop / hadoopを変更します-env.shJDKサポートの取得exportJAVA_HOME
= / hadoop / jdk1.7.0_79
3. hadoop-2.6.0 / etc / hadoop /core-site.xmlグローバル構成ファイルを変更します

    hadoop.tmp.dir
    /hadoop/tmp
    A base for other temporary directories.


    fs.default.name
    hdfs://192.168.1.2:9000

4.レプリケーションhadoop-2.6.0 / etc / hadoop / hdfs-site.xml
dfs.name.dir
/hadoop/hadoop-2.6.0/namenodedata
dfs.data.dir
/hadoop/hadoop-2.6.0/datadfs
。レプリケーション
2

5.変更-2.6.0のHadoopの/ etc /のHadoop / MapReduceはmapred-site.xmlの
6変性のHadoop-2.6.0の/ etc /のHadoop /スレーブ指定されたノードから
スレーブ1
スレーブ2を

b。ファイルの内容を同期するために他の2つのノードに配布する必要があります
rsync-avz /hadoop/hadoop-2.6.0 slave1:/ hadoop /
rsync -avz /hadoop/hadoop-2.6.0 slave2:/ hadoop/c。HDFSを
フォーマットします
ビン/ HDFS名前ノード-format
D開始HDFS。
sbinに/ start-dfs.sh
Eテスト。
JPS

のhttp://マスター:50070 /
。FストップHDFS
sbinに/ stop-dfs.sh

11.ZooKeeperをインストールします

http://zookeeper.apache.org/a
。マスターノードにZooKeepertar
-zxfzookeeper-3.4.6.tar.gz-C…/ hadoop /をインストールします。b。conf
ディレクトリの下のzoo_sample.cfgをzooに変更します。 cfg
cd zookeeper-3.4.6 / conf /

修改zoo.cfgdataDir
= / hadoop / zookeeper-3.4.6 / zookdata

dataDir(/hadoop/zookeeper-3.4.6/zookdata)で指定されたデータディレクトリにファイルmyidを作成します。ファイルの内容は、現在のマシンを一意に識別するための正の整数値です。したがって、異なるマシンの値を同じにすることはできません。1を選択できます。 、2,3-
CD /hadoop/zookeeper-3.4.6/zookdata
VI MYID
1
zoo.cfgに次のパラメータを追加します。
2888:3888 server.1 =マスター
server.2 =スレーブ1:2888:3888
server.3 =スレーブ2: 2888:3888
。B同期
のrsync -avz /hadoop/zookeeper-3.4.6 SLAVE1:/ Hadoopの/
rsyncの-avz /hadoop/zookeeper-3.4.6スレーブ2:/ Hadoopの/
。C同期後に各ノードのMYIDを変更
2
3
D各ノードのサーバー・プロセスの開始
ビン/ zkServer.shが開始
Eを、インストールが成功したかどうか確認してください。。
/zkServer.shステータス
ビン/ zkCli.shマスター-server:2181の
LS /
終了する
FをストップのZooKeeper。
ビン/ zkServer.sh停止

12、hbaseをインストールします

http://hbase.apache.org/HDFS
が開始され
いること確認します。a。マスターノードで
HBASEtar -zxf hbase-1.0.3-bin.tar.gz-C…/ hadoop /を解凍します。

b。構成ファイルの
変更1.HBase環境変数構成ファイルの変更hbase-
env.shexport JAVA_HOME = / hadoop / jdk1.7.0_79
2. hbase-site.xmlの変更
hbase.rootdir#hbaseデータベースがデータを格納するディレクトリ
hdfsを設定します。 //192.168.1.2:9000/hbase
hbase.cluster.distributed#hbase配布モードを開きます
true
hbase.zookeeper.quorum
master、slave1、slave2#zookeeperクラスターノード名を指定します
hbase.zookeeper.property.dataDir#zookeeperクラスターデータディレクトリを参照します
/ hadoop / zookeeper-3.4.6 / zookdata

3.2つの同期ノードから
regionserversSlave1
slave2Cを変更します。rsync - avz / hadoop / hbase-1.0.3 Slave1:/ Hadoop / rsync -avz /hadoop/hbase-1.0.3 slave2:/ Hadoop /


D。スタートは、HBaseの
./start-hbase.sh
と、e。かどうかを確認してください
JPS正常に起動している
fを。HBaseのために接続するためのクライアントを使用し
./hbaseシェル
グラムを。HBaseのと遊ぶ、将来のcreate'testの主な仕事
」、 『CF1』
リスト
プット'テスト'、 'ROW1'、 'CF1:A'、 'VALUE1'
PUT 'テスト'、 'ROW1'、 'CF1:B'、 'value2の'
スキャン'テスト'
無効'テスト'
ドロップ'テスト'

13.シャットダウンして、Hadoop、zookeeper、hbaseを起動します

1.停止したhbase。ビンディレクトリ
./stop-hbase.sh2
。各ノードが停止します
zookeeper 。ビンディレクトリ./zkServer.shSTOP3
。停止したhadoop。sbinディレクトリ内
./stop -dfs.sh

14.注:この記事はoffice onenoteに保存されており、最近公開されました。コンテンツは少し前のバージョンのソフトウェアに属しています。期間中のソフトウェアコンテンツの変更については、apacheの公式Webサイトでバージョン更新コンテンツを確認してください。参照用です。

おすすめ

転載: blog.csdn.net/Uridis/article/details/88079537