HBaseのと飼育係をインストールUbuntuの

飼育係をインストールするにはまず、

首先使用XFTP工具 将Zookeeper和HBase的压缩包上传到集群的节点上去(hadoop2)

ここに画像を挿入説明
クラスタ内のノードへのアップロードファイルを使用することができた後scp apache-zookeeper-3.5.6-bin.tar.gz jee@hadoop3:/home/jee/software/、クラスタコマンドで別の二つのマシンへファイルを送信します

飼育係は、圧縮されたパッケージhadoop2を解凍しますsudo tar -zxvf apache-zookeeper-3.5.6-bin.tar.gz -C /usr/local/

飼育係のパッケージ名は少し長すぎる、私たちの名前を変更しましたmv apache-zookeeper-3.5.6-bin/ zookeeper

彼はその後、ユーザーとユーザーグループ(rootユーザーに切り替える必要)修正chown -R jee:jee zookeeper/(私たちは私たち自身の一般ユーザーを改訂元々 rootユーザー)

私たちが作成したzkDataデータの格納に使用されたフォルダ(通常のユーザーまたは他のユーザーとこのフォルダのユーザーグループに戻すには注意して!のルートです)mkdir zkData

私たちは、飼育係を設定する次に、

パスを入力します:/usr/local/zookeeper/confzoo_sample.cfgはzoo.cfgファイルを名前を変更mv zoo_sample.cfg zoo.cfg

Zoo.cfgは、設定ファイルに以下の情報を変更します。

#存放数据的文件夹
dataDir=/usr/local/zookeeper/zkData 
#Zookeeper分布的节点和其端口 server.后面的数字表示id 后面会配置
server.2=hadoop2:2888:3888
server.3=hadoop3:2888:3888
server.4=hadoop4:2888:3888

設定MYID

在hadoop2上zookeeper的zkData路径下创建myid文件。写入id。
Hadoop2的myid 为2
Hadoop3的myid 为3
Hadoop4的myid 为4

IDの書き込みは、一貫してzoo.cfgファイル構成にする必要があります。
ここに画像を挿入説明
ここに画像を挿入説明
これまでのところ、我々は、単一ノード上の飼育係の設定が完了しているし、我々は在其他两台节点上解压文件+修改用户组+创建zkData文件夹その後、飼育係、他の2つのノードは、我々は2つだけに配布されたファイルを設定したということだけ薄いプロファイルを変更するために、私たちがインストールされていませんその上台湾ノード

在配置好的节点上执行下面命令:
rsync -rvl /usr/local/zookeeper/conf/* jee@hadoop3:/usr/local/zookeeper/conf
rsync -rvl /usr/local/zookeeper/conf/* jee@hadoop4:/usr/local/zookeeper/conf

その後zkDataにこれら2つのノードMYID作成

hadoop3的zkData的目录下创建myid,写入3
Hadoop4的zkData的目录下创建myid,写入4

その後、我々はクラスタ構成が成功したかどうかを確認するために開始します

起動し、クラスタを停止します。

启动:
/usr/local/zookeeper/bin/zkServer.sh start
停止:
/usr/local/zookeeper/bin/zkServer.sh stop
注:zookeeper集群的每个服务器都需要启动/停止,所有zookeeper服务器启动后,只有一个Leader,其他都是follower

ここに画像を挿入説明
ビューのステータス:

执行:/usr/local/zookeeper/bin/zkServer.sh status
信息如下:
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: follower

設定HBaseの

最初に圧縮ファイルを解凍/usr/local/修正という名前のディレクトリhbaseおよびユーザとユーザグループを変更しますsudo chown -R jee:jee hbase/

設定ファイルを変更します。 hbase-env.sh

1.修改JDK环境变量JAVA_HOME

2.修改HBASE-MANAGES-ZK=false;
默认为true,表示使用Hbase自带的zookeeper。修改为false,表示使用独立安装的zookeeper。
	
3.如果使用的jdk 1.8以上版本,需要移除HBASE-MASTER-OPTS和HBASE-REGIONSERVER-OPTS配置

4.创建并配置HBASE_LOG_DIR路径

ここに画像を挿入説明
ここに画像を挿入説明
ここに画像を挿入説明
ここに画像を挿入説明

再構成 hbase-site.xml

<!--zookeeper的节点主机名-->
<configuration>
<property>
    <name>hbase.zookeeper.quorum</name>
    <value>hadoop2:2181,hadoop3:2181,hadoop4:2181</value>
    <description>The directory shared by RegionServers.
    </description>
  </property>
 <!--hbase的存储根目录,设为hadoopHDFS根目录下的hbase-->
  <property>
    <name>hbase.rootdir</name>
    <value>hdfs://hadoop2:9000/hbase</value>
    <description>The directory shared by RegionServers.
    </description>
  </property>
  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
    <description>The mode the cluster will be in. Possible values are
      false: standalone and pseudo-distributed setups with managed Zookeeper
      true: fully-distributed with unmanaged Zookeeper Quorum (see hbase-env.sh)
    </description>
  </property>
    <property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/zookeeper/zkData</value>
</property>
</configuration>

上書きregionserversマシン名の私たちの書き込みクラスタファイル

regionservers中的节点表示  这些节点都是RegionServer
配置从节点名称:
hadoop2
hadoop3
hadoop4

HBaseのソフト接続のHadoop:

将hadoop的core-site.xml和hdfs-site.xml放到hbase/conf目录下。
ln 软链接命令
ln -s /usr/local/hadoop/etc/hadoop/core-site.xml /usr/local/hbase/conf/core-site.xml
ln -s /usr/local/hadoop/etc/hadoop/core-site.xml /usr/local/hbase/conf/hdfs-site.xml

ここに画像を挿入説明

これまでのところ、私たちは上の単一ノードでの設定をHBaseの、その後、我々はすべて行っています将这台节点上的HBase拷贝到其他节点上去

sudo scp -r /usr/local/hbase root@hadoop3:/usr/local/hbase 
sudo scp -r /usr/local/hbase root@hadoop4:/usr/local/hbase 

然后再修改拷过去的HBase的用户和用户组
并且 软链接是不会拷贝过去的 所以我们需要在Hadoop2和Hadoop3中也创建两个软链接

また、我々は非常に数分の異なるノード間の可能性のギャップを要求することは、我々が設定する必要があるので、コマンドでのHBaseにつながる可能時間をHBaseの时钟同步クラスタ内の時間のノードを作ることが同じです

将一台节点作为主节点 另外的节点作为从节点 然后从节点向主节点拉取时间即可

我们将Hadoop2作为主节点  Hadoop3和Hadoop4作为从节点 开始设置
1.先在Hadoop2中安装NTP
sudo apt-get install ntp

2.修改被同步机器的/etc/ntp.conf
主要配置:
(1) 哪些机器能够访问时钟同步服务,进行时钟同步。权限配置
(2)配置时钟同步的服务端,时间服务的层级

#限制只能是192.168.124.0/24网段的IP可以连接机器同步时间,不支持远程登陆
//需要根据自己的本地IP修改
restrict 192.168.124.0 mask 255.255.255.0 nomodify notrap
//下面这两个不用修改
server 127.127.1.0 #表示本机
fudge 127.127.1.0 stratum 10 #fudge和server相同,stratum 时间服务器的层级

关闭需要同步时间机器的ntp(除hadoop2的其他机器)
sudo service ntp stop
同步时间(除hadoop2的其他机器都要执行)
sudo ntpdate hadoop2
在除hadoop2的其他机器,将同步时间的命令放在crontab中(切换到root用户下操作)
crontab -e # 打开crontab
0 8 * * * ntpdate deptest1 #需要添加的命令,每天早上八点同步一次
公開された53元の記事 ウォンの賞賛0 ビュー1932

おすすめ

転載: blog.csdn.net/XXuan_/article/details/105036521