1Hadoop環境が正常に構築されました
2 HBaseインストール(マスターノードにインストールされ、スレーブノードにscpが発行されます)
2.1hbase-2.2.6-bin.tar.gzをアップロードします
2.2hbase-2.2.6-bin.tar.gzを/ appディレクトリに解凍します
2.3HBase構成ファイルの変更
2.3.1 /app/hbase-2.2.6/conf/hbase-env.sh
最後に追加:
2.3.2 /app/hbase-2.2.1/conf/hbase-site.xml
vi / app / hbase-2.2.1 / conf / hbase-site.xmlの
内容は次のとおりです。
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
</property>
</configuration>
2.3.3 /app/hbase-2.2.6/conf/regionservers
vi /app/hbase-2.2.6/conf/regionservers
2.3.4 /app/hbase-2.2.6/conf/backup-masters
vi /app/hbase-2.2.6/conf/backup-masters
slave1
2.4ノードマシンに配信する
scp -r /app/hbase-2.2.6 angel @ slave2:/ app
scp -r /app/hbase-2.2.6 angel @ slave1:/ app
2.5すべてのノードのHBase環境変数を編集する
$ vi /home/angel/.profile
export JAVA_HOME=/app/jdk1.8.0_261
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_HOME=/app/hadoop-2.8.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export JAVA_LIBARAY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HBASE_HOME=/app/hbase-2.2.6
export PATH=$PATH:$HBASE_HOME/bin
export ZOOKEEPER_HOME=/app/zookeeper-3.4.14
export PATH=$PATH:$ZOOKEEPER_HOME/bin
2.6HBase環境変数はすべてのノードで有効になります
$ソース/home/angel/.profile
2.7myclusterが見つからない場合の解決策
cp /app/hadoop-2.8.5/etc/hadoop/core-site.xml /app/hbase-2.2.6/conf/
cp /app/hadoop-2.8.5/etc/hadoop/hdfs-site.xml / app / hbase-2.2.6 / conf /
注:すべてのノードマシンがコピーされます
3ZooKeeperをインストールします
3.1zookeeperのアップロード-3.4.14.tar.gz
3.2zoo.cfgを編集する
cp /app/zookeeper-3.4.14/conf/zoo_sample.cfg /app/zookeeper3.4.14/conf/zoo.cfg
vi /app/zookeeper-3.4.14/conf/zoo.cfg
最後に追加:
maxClientCnxns = 60
autopurge.snapRetainCount = 3
autopurge.purgeInterval = 1
server.0 = 172.25.0.10:2888:3888
server.1 = 172.25.0.11:2888:3888
server.2 = 172.25.0.12:2888:3888
3.3myidを作成する
mkdir /app/zookeeper-3.4.14/data
echo 0> /app/zookeeper-3.4.14/data/myid
3.4Zookeeperを他のノードにコピーする
scp -r /app/zookeeper-3.4.14/ angel @ slave1:/ app
scp -r /app/zookeeper-3.4.14/ angel @ slave2:/ app
3.5他のノードはmyidを個別に作成します
スレーブノード2では、slave2
echo 2> /app/zookeeper-3.4.14/data/myid
スレーブノード1では、
slave1 echo 1> /app/zookeeper-3.4.14/data/myid
3.6すべてのノードでZooKeeperを起動します
zkServer.sh start
3.7zooKeeperのステータスを表示する
マスターノード
zkServer.shステータス
モード:フォロワー
スレーブノード1スレーブ1
モード:フォロワー
スレーブノード2slave2
モード:リーダー
4HBase起動テスト
4.1Hadoopを開始する
$ start-dfs.sh
$ start-yarn.sh
$ mr-jobhistory-daemon.sh start historyserver
4.2HBaseを起動します
マスターノードはHBaseを開始します
$ start-hbase.sh
注:最初にHBaseを開始することは標準化されていません。最初にzooKeeper、次にHBaseである必要がありますが、zookeeperを最初に開始し、次にHBaseを開始すると、コンピューターを実行できないことがわかりました。が開始されたので、最初にHBaseを起動し、次にzookeeperを起動します。
4.3zooKeeperを起動します
3つのノードマシン
$ zkServer.shが
サービスの開始を開始します
$ zkServer.shステータスで
サービスを表示します
$ zkServer.sh停止し
てサービスを停止します
マスターノードマスター
スレーブ
ノードslave1スレーブノード2slave2
4.4プロセスの表示
マスターノードマスター(6プロセス)
スレーブノード1、slave1、slave2(4プロセス)
プロセスが欠落している場合は
、slave1ノードとslave2ノード
でregionserverを起動します$ hbase-daemon.sh start regionserver
マスターノードでマスターを開始します
$ hbase-daemon.sh start master
4.5Webページのテスト
http:// master:16010 /
http:
// slave1:16030 / http:// slave2:16030 /
この時点で、HBaseのデプロイは完了です。
以下のリンク、HBaseテーブル管理をクリックしてください。
リンク