ビッグデータとの戦いLinuxUbuntu 20.04.1 HBase2.2.6デプロイメント

1Hadoop環境が正常に構築されました

詳細はこちら

2 HBaseインストール(マスターノードにインストールされ、スレーブノードにscpが発行されます)

2.1hbase-2.2.6-bin.tar.gzをアップロードします

ここに画像の説明を挿入

2.2hbase-2.2.6-bin.tar.gzを/ appディレクトリに解凍します

ここに画像の説明を挿入

2.3HBase構成ファイルの変更

2.3.1 /app/hbase-2.2.6/conf/hbase-env.sh

ここに画像の説明を挿入

最後に追加:
ここに画像の説明を挿入

2.3.2 /app/hbase-2.2.1/conf/hbase-site.xml

vi / app / hbase-2.2.1 / conf / hbase-site.xmlの
内容は次のとおりです。

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
</configuration>

ここに画像の説明を挿入

2.3.3 /app/hbase-2.2.6/conf/regionservers

vi /app/hbase-2.2.6/conf/regionservers

ここに画像の説明を挿入

2.3.4 /app/hbase-2.2.6/conf/backup-masters

vi /app/hbase-2.2.6/conf/backup-masters
slave1

2.4ノードマシンに配信する

scp -r /app/hbase-2.2.6 angel @ slave2:/ app
scp -r /app/hbase-2.2.6 angel @ slave1:/ app
ここに画像の説明を挿入

2.5すべてのノードのHBase環境変数を編集する

$ vi /home/angel/.profile

export JAVA_HOME=/app/jdk1.8.0_261
export PATH=$JAVA_HOME/bin:$PATH

export HADOOP_HOME=/app/hadoop-2.8.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export JAVA_LIBARAY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export HBASE_HOME=/app/hbase-2.2.6
export PATH=$PATH:$HBASE_HOME/bin

export ZOOKEEPER_HOME=/app/zookeeper-3.4.14
export PATH=$PATH:$ZOOKEEPER_HOME/bin

ここに画像の説明を挿入

2.6HBase環境変数はすべてのノードで有効になります

$ソース/home/angel/.profile
ここに画像の説明を挿入

2.7myclusterが見つからない場合の解決策

cp /app/hadoop-2.8.5/etc/hadoop/core-site.xml /app/hbase-2.2.6/conf/
cp /app/hadoop-2.8.5/etc/hadoop/hdfs-site.xml / app / hbase-2.2.6 / conf /
ここに画像の説明を挿入
注:すべてのノードマシンがコピーされます

3ZooKeeperをインストールします

3.1zookeeperのアップロード-3.4.14.tar.gz

ここに画像の説明を挿入

3.2zoo.cfgを編集する

cp /app/zookeeper-3.4.14/conf/zoo_sample.cfg /app/zookeeper3.4.14/conf/zoo.cfg
ここに画像の説明を挿入
vi /app/zookeeper-3.4.14/conf/zoo.cfg
最後に追加:

maxClientCnxns = 60
autopurge.snapRetainCount = 3
autopurge.purgeInterval = 1

server.0 = 172.25.0.10:2888:3888
server.1 = 172.25.0.11:2888:3888
server.2 = 172.25.0.12:2888:3888
ここに画像の説明を挿入

3.3myidを作成する

mkdir /app/zookeeper-3.4.14/data
ここに画像の説明を挿入
echo 0> /app/zookeeper-3.4.14/data/myid
ここに画像の説明を挿入

3.4Zookeeperを他のノードにコピーする

scp -r /app/zookeeper-3.4.14/ angel @ slave1:/ app
scp -r /app/zookeeper-3.4.14/ angel @ slave2:/ app
ここに画像の説明を挿入

3.5他のノードはmyidを個別に作成します

スレーブノード2では、slave2
echo 2> /app/zookeeper-3.4.14/data/myid
ここに画像の説明を挿入
スレーブノード1では、
slave1 echo 1> /app/zookeeper-3.4.14/data/myid

3.6すべてのノードでZooKeeperを起動します

zkServer.sh start
ここに画像の説明を挿入
ここに画像の説明を挿入
ここに画像の説明を挿入

3.7zooKeeperのステータスを表示する

マスターノード
zkServer.shステータス
ここに画像の説明を挿入
モード:フォロワー

スレーブノード1スレーブ1
ここに画像の説明を挿入
モード:フォロワー

スレーブノード2slave2
ここに画像の説明を挿入
モード:リーダー

4HBase起動テスト

4.1Hadoopを開始する

$ start-dfs.sh
ここに画像の説明を挿入

$ start-yarn.sh
ここに画像の説明を挿入

$ mr-jobhistory-daemon.sh start historyserver
ここに画像の説明を挿入

4.2HBaseを起動します

マスターノードはHBaseを開始します
$ start-hbase.sh
ここに画像の説明を挿入
注:最初にHBaseを開始することは標準化されていません。最初にzooKeeper、次にHBaseである必要がありますが、zookeeperを最初に開始し、次にHBaseを開始すると、コンピューターを実行できないことがわかりました。が開始されたので、最初にHBaseを起動し、次にzookeeperを起動します。

4.3zooKeeperを起動します

3つのノードマシン
$ zkServer.shが
サービスの開始を開始します
$ zkServer.shステータスで
サービス表示します
$ zkServer.sh停止し
てサービス停止します

マスターノードマスター
ここに画像の説明を挿入
スレーブ
ここに画像の説明を挿入
ノードslave1スレーブノード2slave2
ここに画像の説明を挿入

4.4プロセスの表示

マスターノードマスター(6プロセス)

ここに画像の説明を挿入

スレーブノード1、slave1、slave2(4プロセス)
ここに画像の説明を挿入

プロセスが欠落している場合は
、slave1ノードとslave2ノード
でregionserverを起動します$ hbase-daemon.sh start regionserver

マスターノードでマスターを開始します
$ hbase-daemon.sh start master

4.5Webページのテスト

http:// master:16010 /
ここに画像の説明を挿入
http:
ここに画像の説明を挿入
// slave1:16030 / http:// slave2:16030 /
ここに画像の説明を挿入
この時点で、HBaseのデプロイは完了です。
以下のリンク、HBaseテーブル管理をクリックしてください。
リンク

おすすめ

転載: blog.csdn.net/qq_45059457/article/details/109326572