进阶3: zookeeper-3.4.9.tar.gz和hbase-1.2.4-bin.tar.gz 环境搭建

前提条件:

      成功安装了  jdk1.8,  hadoop2.7.3 

注意条件:

          zookeeper,hbase 版本必须要和hadoop 安装版本相互兼容,否则容易出问题;

          本次:安装包 zookeeper-3.4.9.tar.gz          和            hbase-1.2.4-bin.tar.gz

 zookeeper   安装步骤

       1. 下载安装包   zookeeper-3.4.9.tar.gz,并上传到linux 目录;

            

         

         2.  解压文件

              tar zxvf zookeeper-3.4.9.tar.gz 

        3.   进入 zookeeper-3.4.9 , 拷贝 conf /zoo_sample.cfg

              cp conf/zoo_sample.cfg conf/zoo.cfg 

         4.  编辑配置文件 conf/zoo.cfg ,如下图:

              

        5. 配置环境变量:

              a.  进入根目录,编辑   ./bash_profile 文件,设置环境变量:

                    export ZOO_HOME=/usr/local/hadoop-soft/etc/zookeeper-3.4.9   

                    export PATH=$ZOO_HOME/bin:$PATH   

                 

                 

       6. 启动zookeeper

            bin/zkServer.sh start 

       7. 验证启动zookeeper成功

             a. 验证进程

                   jps | grep Quorum 

              b. 如果产生如下输出,则表明进程启动正常:

                 

 HBase  安装步骤(伪分布式版):

             1.上传hbase-1.2.4 安装包到linux 

             2.设置HBase 环境变量:

  

             3.解压hbase-1.2.4  安装文件

                  tar zxvf hbase-1.2.4-bin.tar.gz 

              4.编辑 conf/hbash-env.sh 文件,可以添加,也可以松开hbash-env.sh 代码注解

                 export JAVA_HOME=/usr/java/jdk1.8.0_51 

                 export HBASE_MANAGES_ZK=false             如果你是使用hbase自带的zk就是true,如果使用自己的zk就是false,此次我们使用的是zoopkeeper 提供的,所以为false

              5.  编辑 conf/hbase-site.xml

<configuration>
  <property>
<!-- 是否分布式--> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property>
<!-- hbase 持久化保存目录--> <name>hbase.rootdir</name> <value>hdfs://master:9000/hbase</value> </property> <property>
<!-- 指定要连接zk的节点 --> <name>hbase.zookeeper.quorum</name> <value>bigdata</value> </property> </configuration>

              为了防止因为hbase和hadoop版本不一致而出现的问题,可以看下{hbase_home}/lib/下相关hadoop*.jar的jar包,跟你的hadoop是否是同一个版本,如果不是可以从{hadoop_home}/ share/hadoop/ 下复制

          6.  编辑conf/regionservers文件

               master 

               该文件表示在哪些主机上启动RegionServers,每一行表示一个主机名,执行命令的时候需要这些机器上的SSH登陆权限

         7. (如果zookeeper 没启动,先启动zookeeper)启动HDFS  

                   

                 会遇到的问题:如下截图dataNode   

                 

                 此截图就没有启动DataNode ,解决办法,将对应的HDFS (hdfs-site.xml) nameNode ,dataNode 节点对应的目录删除,重新分区:

                       a 如下图:将dfs 所有目录先删除,然后在将nameNode,dataNode 对应的目录手动删除,在手动创建

                           

                      b. 执行hdfs 分区操作:

                           

猜你喜欢

转载自www.cnblogs.com/kuncy/p/10666210.html