CentOS6.7ビルドZookeeper

 

記事ディレクトリ

 


序文

データには3つの主要な専攻がありますが、先週、Hadoop環境を構築する方法を学びました。静的IPを構成し、hadoop分散クラスターを構築したら、Zookeeperソフトウェアの構築を開始してから、hbase環境(https://blog.csdn.net/master_hunter/article/details/108704148)を構築しますこの分野について不明な点が多く、記事に誤りがある可能性があります。コメント欄で訂正していただければ幸いです。この記事の誤りは継続的に訂正され、維持されます。

特定の参照https://www.cnblogs.com/Genesis2018/p/8304708.html

この大きな男のインストール手順。


 

1. Zookeeperとは何ですか?

分散サービス、グループ管理モニタリング、分散投票とロック、および名前付きアドレッシングでデータの同期と整合性を実現するには、クラスターに分散調整サービスを提供する必要があります。このため、Zookeeperが誕生しました。

 

2、インストール手順

Zookeeperは、クラスター化されたデプロイメント方式を採用しています。これは通常、単一障害点を防ぐために複数のサーバーにデプロイされます。投票中の収束を容易にするために、通常、奇数のサーバーが配備されます。この記事では、具体的なアーキテクチャとストレージ構造については詳しく説明しません。展開についてのみ詳しく説明します。

1.ミラーダウンロード

 Tsinghuaミラーを使用してZookeeperバージョン3.4.14をダウンロードしています。ダウンロードするには、binサフィックスを使用してtarパッケージを使用することをお勧めします。binサフィックスがないと、ソースコードはコンパイルされません。インストール後、binディレクトリが見つからず、エラーが報告されます。

wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper- 3.4.14/apache-zookeeper- 3.4.14.tar.gz

ダウンロードしたファイルをtar解凍します

tar -zxvf apache-zookeeper-3.4.14.bin.tar.gz

飼育係をローカルディレクトリに移動する

mv zookeeper- 3.4.14 /usr/local/

创建zookeeper的数据目录

mkdir -p / usr / local / zookeeper- 3.4.14 / data

構成環境の編集

cp / usr / local / zookeeper- 3.4.14 / conf / zoo_sample.cfg / usr / local / zookeeper- 3.4.14 / conf / zoo.cfg

vi / usr / local / zookeeper- 3.4.14 / conf / zoo.cfg

デプロイされた仮想マシンのアドレスをzoo.cfgに追加します

dataDir = / usr / local /
zookeeper- 3.4.14 / data server.1 = hadoop1:2888:3888
server.2 = hadoop2:2888:3888
server.3 = hadoop3:2888:3888

2888ポート番号はZooKeeperサービス間の通信用のポートであり、3888はZooKeeperが他のアプリケーションと通信するためのポートです。

zookeeperの環境変数を構成する

vi /etc/profile.d/zookeeper.sh

追加

export ZOOKEEPER_HOME = / usr / local / zookeeper- 3.4.14
export PATH = $ PATH:$ ZOOKEEPER_HOME / bin

有効にすることを忘れないでください

ソース/etc/profile.d/zookeeper.sh

他の仮想マシンに渡す

scp -r /etc/profile.d/zookeeper.sh hadoopxx:/etc/profile.d/

scp -r / usr / local / zookeeper- 3.4.14 hadoopxx:/ usr / local /

コマンドが正常に実行されたかどうかを確認します

エコー$?
0

他のノード

vi / usr / local / zookeeper- 3.4.14 / data / myid

追加

1

ノードの数に応じて

ファイルには1行しか含まれておらず、内容はnodeに対応する下位ノードのid番号です。マスターノードとスレーブノードに対応するmyidファイルの値は1と2です...

保存を実行

 ソース/etc/profile.d/zookeeper.sh

マスターに戻り、飼育係を開始します

/ usr / local / zookeeper- 3.4.14 / bin / zkServer.sh start

ZooKeeper JMXがデフォルトで有効になっています
configの使用:/ usr / local / zookeeper- 3.4.14 / bin /../ conf / zoo.cfg zookeeperの
開始...開始

zkCli.shを使用してzookeepeをリンクする 

/ usr / local / zookeeper- 3.4.14 / bin / zkCli.sh -server hadoop1:2181
[ zk :localhost:2181(CONNECTED)0] help
[zk:localhost :: 2181(CLOSED)3] quit

他のノードでサービスを開始する

#/ usr / local / zookeeper- 3.4.14 / bin / zkServer.sh start

ZooKeeper JMXがデフォルトで有効になっています
configの使用:/ usr / local / zookeeper- 3.4.14 / bin /../ conf / zoo.cfg zookeeperの
開始...開始

#/ usr / local / zookeeper- 3.4.14 / bin / zkCli.sh -server hadoopxx:2181
[zk:hadoopxx:2181(CONNECTED)0] quit
 

 

1.テストを開始します

すべてのノードでzkserverを起動します

各ノードのステータスを表示する

/zkServer.shステータス

正常に開始された場合、ノード選択結果がリーダーまたはフォロワーであることを示します


総括する

ログで報告されたエラーに応じて、自分で調整する必要があります。後で、zookeeperの構成における一般的なエラーのいくつかの解決策を掲載します。

おすすめ

転載: blog.csdn.net/master_hunter/article/details/108704148