Hadoop2.0集群、Hive工具、Zookeeper集群、Kafka集群、Spark集群、Hbase集群、Sqoop工具、Flume工具搭建总结(二)

四、Zookeeper集群搭建

------------- 安装ZooKeeper包-----------------------------

1、将zookeeper-3.4.5.tar.gz使用WinSCP拷贝到spark1的/usr/local目录下。
2、对zookeeper-3.4.5.tar.gz进行解压缩:tar -zxvf zookeeper-3.4.5.tar.gz。
3、对zookeeper目录进行重命名:mv zookeeper-3.4.5 zk。
4、配置zookeeper相关的环境变量
vi .bashrc     ---->vi ~/.bashrc
export ZOOKEEPER_HOME=/usr/local/zk
export PATH=$ZOOKEEPER_HOME/bin
source .bashrc   --->source ~/.bashrc


-------------  配置zoo.cfg-------------------------------------

cd zk/conf
mv zoo_sample.cfg zoo.cfg

vi zoo.cfg
修改:dataDir=/usr/local/zk/data
新增:
server.0=spark1:2888:3888    
server.1=spark2:2888:3888
server.2=spark3:2888:3888

-------------  设置zk节点标识-------------------------------------

cd zk
mkdir data
cd data

vi myid
0


------------- 搭建zk集群-------------------------------------------

1、在另外两个节点上按照上述步骤配置ZooKeeper,使用scp将zk和.bashrc拷贝到spark2和spark3上即可。
scp -r zk root@spark2:/usr/local/
[root@spark1 local]# scp ~/.bashrc root@spark2:~/
source .bashrc
2、唯一的区别是spark2和spark3的标识号分别设置为1和2。


------------- 启动ZooKeeper集群----------------------------------

1、分别在三台机器上执行:zkServer.sh start。
[root@spark1 local]# zkServer.sh start
[root@spark2 local]# zkServer.sh start
[root@spark3 local]# zkServer.sh start
2、检查ZooKeeper状态:zkServer.sh status。


五、Kafka集群搭建

-------------  安装scala 2.11.4-------------------------------------

1、将scala-2.11.4.tgz使用WinSCP拷贝到spark1的/usr/local目录下。
2、对scala-2.11.4.tgz进行解压缩:tar -zxvf scala-2.11.4.tgz。
3、对scala目录进行重命名:mv scala-2.11.4 scala
4、配置scala相关的环境变量
vi .bashrc
export SCALA_HOME=/usr/local/scala
export PATH=$SCALA_HOME/bin
source .bashrc
5、查看scala是否安装成功:scala -version
6、按照上述步骤在spark2和spark3机器上都安装好scala。使用scp将scala和.bashrc拷贝到spark2和spark3上即可。


-------------  安装Kafka包--------------------------------------------

1、将kafka_2.9.2-0.8.1.tgz使用WinSCP拷贝到spark1的/usr/local目录下。
2、对kafka_2.9.2-0.8.1.tgz进行解压缩:tar -zxvf kafka_2.9.2-0.8.1.tgz。
3、对kafka目录进行改名:mv kafka_2.9.2-0.8.1 kafka
4、配置kafka
vi /usr/local/kafka/config/server.properties
broker.id:依次增长的整数,0、1、2、3、4,集群中Broker的唯一id
zookeeper.connect=192.168.1.107:2181,192.168.1.108:2181,192.168.1.109:2181
5、安装slf4j
将的slf4j-1.7.6.zip上传到/usr/local目录下
unzip slf4j-1.7.6.zip
把slf4j中的slf4j-nop-1.7.6.jar复制到kafka的libs目录下面


-------------  安装Kafka包--------------------------------------------

1、按照上述步骤在spark2和spark3分别安装kafka。用scp把kafka拷贝到spark2和spark3行即可。

2、唯一区别的,就是server.properties中的broker.id,要设置为1和2

------------- 启动kafka集群--------------------------------------------

1、在三台机器上分别执行以下命令:nohup bin/kafka-server-start.sh config/server.properties &     这个命令得在kaka的根目录执行。

2、解决kafka Unrecognized VM option 'UseCompressedOops'问题
vi bin/kafka-run-class.sh
if [ -z "$KAFKA_JVM_PERFORMANCE_OPTS" ]; then
  KAFKA_JVM_PERFORMANCE_OPTS="-server  -XX:+UseCompressedOops -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:+CMSScavengeBeforeRemark -XX:+DisableExplicitGC -Djava.awt.headless=true"
fi
去掉-XX:+UseCompressedOops即可

3、使用jps检查启动是否成功



六、Spark集群搭建

------------- 安装spark包--------------------------------------------

1、将spark-1.3.0-bin-hadoop2.4.tgz使用WinSCP上传到/usr/local目录下。
2、解压缩spark包:tar zxvf spark-1.3.0-bin-hadoop2.4.tgz。
3、更改spark目录名:mv spark-1.3.0-bin-hadoop2.4 spark
4、设置spark环境变量
vi .bashrc
export SPARK_HOME=/usr/local/spark
export PATH=$SPARK_HOME/bin
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
source .bashrc


------------ 修改spark-env.sh文件--------------------------------------

1、cd /usr/local/spark/conf
2、cp spark-env.sh.template spark-env.sh
3、vi spark-env.sh
export JAVA_HOME=/usr/java/latest
export SCALA_HOME=/usr/local/scala
export SPARK_MASTER_IP=192.168.1.107
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop

------------ 修改slaves文件---------------------------------------------

spark1
spark2
spark3


------------  安装spark集群---------------------------------------------

在另外两个节点进行一模一样的配置,使用scp将spark和.bashrc拷贝到spark2和spark3即可。

------------   启动spark集群---------------------------------------------

1、在spark目录下的sbin目录
2、执行./start-all.sh
3、使用jsp和8080端口可以检查集群是否启动成功
4、进入spark-shell查看是否正常
[root@spark1 local]# spark-shell



猜你喜欢

转载自blog.csdn.net/shujuelin/article/details/80287333