記事ディレクトリ
序文
データには3つの主要な専攻がありますが、先週、Hadoop環境を構築する方法を学びました。静的IPを構成し、hadoop分散クラスターを構築したら、Zookeeperソフトウェアの構築を開始してから、hbase環境(https://blog.csdn.net/master_hunter/article/details/108704148)を構築します。この分野について不明な点が多く、記事に誤りがある可能性があります。コメント欄で訂正していただければ幸いです。この記事の誤りは継続的に訂正され、維持されます。
特定の参照https://www.cnblogs.com/Genesis2018/p/8304708.html
この大きな男のインストール手順。
1. Zookeeperとは何ですか?
分散サービス、グループ管理モニタリング、分散投票とロック、および名前付きアドレッシングでデータの同期と整合性を実現するには、クラスターに分散調整サービスを提供する必要があります。このため、Zookeeperが誕生しました。
2、インストール手順
Zookeeperは、クラスター化されたデプロイメント方式を採用しています。これは通常、単一障害点を防ぐために複数のサーバーにデプロイされます。投票中の収束を容易にするために、通常、奇数のサーバーが配備されます。この記事では、具体的なアーキテクチャとストレージ構造については詳しく説明しません。展開についてのみ詳しく説明します。
1.ミラーダウンロード
Tsinghuaミラーを使用してZookeeperバージョン3.4.14をダウンロードしています。ダウンロードするには、binサフィックスを使用してtarパッケージを使用することをお勧めします。binサフィックスがないと、ソースコードはコンパイルされません。インストール後、binディレクトリが見つからず、エラーが報告されます。
wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper- 3.4.14/apache-zookeeper- 3.4.14.tar.gz
tar -zxvf apache-zookeeper-3.4.14.bin.tar.gz
飼育係をローカルディレクトリに移動する
mv zookeeper- 3.4.14 /usr/local/
创建zookeeper的数据目录
mkdir -p / usr / local / zookeeper- 3.4.14 / data
構成環境の編集
cp / usr / local / zookeeper- 3.4.14 / conf / zoo_sample.cfg / usr / local / zookeeper- 3.4.14 / conf / zoo.cfg
vi / usr / local / zookeeper- 3.4.14 / conf / zoo.cfg
デプロイされた仮想マシンのアドレスをzoo.cfgに追加します
dataDir = / usr / local /
zookeeper- 3.4.14 / data server.1 = hadoop1:2888:3888
server.2 = hadoop2:2888:3888
server.3 = hadoop3:2888:3888
2888ポート番号はZooKeeperサービス間の通信用のポートであり、3888はZooKeeperが他のアプリケーションと通信するためのポートです。
zookeeperの環境変数を構成する
vi /etc/profile.d/zookeeper.sh
追加
export ZOOKEEPER_HOME = / usr / local / zookeeper- 3.4.14
export PATH = $ PATH:$ ZOOKEEPER_HOME / bin
有効にすることを忘れないでください
ソース/etc/profile.d/zookeeper.sh
他の仮想マシンに渡す
scp -r /etc/profile.d/zookeeper.sh hadoopxx:/etc/profile.d/
scp -r / usr / local / zookeeper- 3.4.14 hadoopxx:/ usr / local /
コマンドが正常に実行されたかどうかを確認します
エコー$?
0
他のノード
vi / usr / local / zookeeper- 3.4.14 / data / myid
追加
1
ノードの数に応じて
ファイルには1行しか含まれておらず、内容はnodeに対応する下位ノードのid
番号です。マスターノードとスレーブノードに対応するmyidファイルの値は1と2です...
保存を実行
ソース/etc/profile.d/zookeeper.sh
マスターに戻り、飼育係を開始します
/ usr / local / zookeeper- 3.4.14 / bin / zkServer.sh start
ZooKeeper JMXがデフォルトで有効になっています
configの使用:/ usr / local / zookeeper- 3.4.14 / bin /../ conf / zoo.cfg zookeeperの
開始...開始
zkCli.shを使用してzookeepeをリンクする
/ usr / local / zookeeper- 3.4.14 / bin / zkCli.sh -server hadoop1:2181
[ zk :localhost:2181(CONNECTED)0] help
[zk:localhost :: 2181(CLOSED)3] quit
他のノードでサービスを開始する
#/ usr / local / zookeeper- 3.4.14 / bin / zkServer.sh start
ZooKeeper JMXがデフォルトで有効になっています
configの使用:/ usr / local / zookeeper- 3.4.14 / bin /../ conf / zoo.cfg zookeeperの
開始...開始#/ usr / local / zookeeper- 3.4.14 / bin / zkCli.sh -server hadoopxx:2181
[zk:hadoopxx:2181(CONNECTED)0] quit
1.テストを開始します
すべてのノードでzkserverを起動します
各ノードのステータスを表示する
/zkServer.shステータス
正常に開始された場合、ノード選択結果がリーダーまたはフォロワーであることを示します
総括する
ログで報告されたエラーに応じて、自分で調整する必要があります。後で、zookeeperの構成における一般的なエラーのいくつかの解決策を掲載します。