centos7 搭建SolrCloud集群

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/sfeng95/article/details/63270808

1.0笔记

非常感谢创智播客的课程!

1.1什么是SolrCloud

SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时需要使用SolrCloud来满足这些需求。

SolrCloud是基于Solr和Zookeeper的分布式搜索方案,它的主要思想是使用Zookeeper作为集群的配置信息中心。

它有几个特色功能:

    1)集中式的配置信息
    2)自动容错
    3)近实时搜索
    4)查询时自动负载均衡

1.2 zookeeper是个什么玩意?

顾名思义zookeeper就是动物园管理员,他是用来管hadoop(大象)、Hive(蜜蜂)、pig(小猪)的管理员, Apache Hbase和 Apache Solr 的分布式集群都用到了zookeeper;Zookeeper:是一个分布式的、开源的程序协调服务,是hadoop项目下的一个子项目。

1.3 SolrCloud结构

SolrCloud为了降低单机的处理压力,需要由多台服务器共同来完成索引和搜索任务。实现的思路是将索引数据进行Shard(分片)拆分,每个分片由多台的服务器共同完成,当一个索引或搜索请求过来时会分别从不同的Shard的服务器中操作索引。

SolrCloud需要Solr基于Zookeeper部署,Zookeeper是一个集群管理软件,由于SolrCloud需要由多台服务器组成,由zookeeper来进行协调管理。

下图是一个SolrCloud应用的例子:

这里写图片描述

1.4 物理结构

三个Solr实例( 每个实例包括两个Core),组成一个SolrCloud。

1.5逻辑结构

索引集合包括两个Shard(shard1和shard2),shard1和shard2分别由三个Core组成,其中一个Leader两个Replication,Leader是由zookeeper选举产生,zookeeper控制每个shard上三个Core的索引数据一致,解决高可用问题。

用户发起索引请求分别从shard1和shard2上获取,解决高并发问题。

1.6collection

Collection在SolrCloud集群中是一个逻辑意义上的完整的索引结构。它常常被划分为一个或多个Shard(分片),它们使用相同的配置信息。比如:针对商品信息搜索可以创建一个collection

collection=shard1+shard2+....+shardX

每个Core是Solr中一个独立运行单位,提供 索引和搜索服务。一个shard需要由一个Core或多个Core组成。由于collection由多个shard组成。所以collection一般由多个core组成。

1.7 Master或Slave

Master是master-slave结构中的主结点(通常说主服务器),Slave是master-slave结构中的从结点(通常说从服务器或备服务器)。同一个Shard下master和slave存储的数据是一致的,这是为了达到高可用目的。

1.8 Shard

Collection的逻辑分片。每个Shard被化成一个或者多个replication,通过选举确定哪个是Leader。

2.0 SolrCloud搭建

本教程的这套安装是单机版的安装,所以采用伪集群的方式进行安装,如果是真正的生成环境,将伪集群的ip改下就可以了,步骤是一样的。

SolrCloud结构图如下:

这里写图片描述

2.1 环境准备

CentOS-6.4-i386-bin-DVD1.iso
jdk-7u72-linux-i586.tar.gz
apache-tomcat-7.0.47.tar.gz
zookeeper-3.4.6.tar.gz
solr-4.10.3.tgz

2.2环境安装

上面的安装都很简单,而且本次文章的主题不是他们,亲大家去查找相关资料

2.3 zookeeper集群安装

2.3.1 下载解压zookeeper

wget  http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.9/zookeeper-3.4.9.tar.gz

tar -zxvf zookeeper-3.4.9.tar.gz

2.3.2将zookeeper拷贝到/usr/local/solrcloud下,复制三份分别并将目录名改为zookeeper1、zookeeper2、zookeeper3

 mkdir /usr/local/solrcloud
 cp -r zookeeper-3.4.9  /usr/local/solrcloud/zookeeper1
 cp -r zookeeper-3.4.9  /usr/local/solrcloud/zookeeper2
 cp -r zookeeper-3.4.9  /usr/local/solrcloud/zookeeper3

2.3.3 进入zookeeper1文件夹,创建data目录。并在data目录中创建一个myid文件内容为“1”(echo 1 >> data/myid)。

mkdir /usr/local/solrcloud/zookeeper1/data
cd /usr/local/solrcloud/zookeeper1/data
echo 1 >> myid

//同理去处理z2,和z3
mkdir /usr/local/solrcloud/zookeeper2/data
mkdir /usr/local/solrcloud/zookeeper3/data

cd /usr/local/solrcloud/zookeeper2/data
echo 2 >> myid
cd /usr/local/solrcloud/zookeeper3/data
echo 3 >> myid  

2.2.4 进去zookeeper1/conf文件夹,把zoo_sample.cfg改名为zoo.cfg

cd /usr/local/solrcloud/zookeeper1/conf
mv  mv zoo_sample.cfg  zoo.cfg

修改它们的zoo.cfg

dataDir=/usr/local/solrcloud/zookeeper1/data
clientPort=2181(zookeeper2中为2182、zookeeper3中为2183)
添加:
server.1=192.168.1.105:2881:3881
server.2=192.168.1.105:2882:3882
server.3=192.168.1.105:2883:3883
vim /usr/local/solrcloud/zookeeper1/conf/zoo.cfg

复制两份到z2,z3

cd /usr/local/solrcloud/zookeeper1/conf/
cp -f zoo.cfg  /usr/local/solrcloud/zookeeper2/conf/
cp -f zoo.cfg  /usr/local/solrcloud/zookeeper3/conf/

编辑其他两个zoo.cfg

vim /usr/local/solrcloud/zookeeper2/conf/zoo.cfg
vim /usr/local/solrcloud/zookeeper3/conf/zoo.cfg

这里写图片描述
这里写图片描述
这里写图片描述

2.2.5 启动三个zookeeper

/usr/local/solrcloud/zookeeper1/bin/zkServer.sh start
/usr/local/solrcloud/zookeeper2/bin/zkServer.sh start
/usr/local/solrcloud/zookeeper3/bin/zkServer.sh start

2.2.6 开启zookeeper用到的端口,或者直接关闭防火墙

//三个客户端端口,如果是真集群就不用改端口了,IP不一样就行了
firewall-cmd --zone=public --add-port=2181/tcp --permanent
firewall-cmd --zone=public --add-port=2182/tcp --permanent
firewall-cmd --zone=public --add-port=2183/tcp --permanent
//下面三个是表示这个服务器与集群中的 Leader 服务器交换信息的端口
firewall-cmd --zone=public --add-port=2881/tcp --permanent
firewall-cmd --zone=public --add-port=2882/tcp --permanent
firewall-cmd --zone=public --add-port=2883/tcp --permanent
//下面三个是表示万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口
firewall-cmd --zone=public --add-port=3881/tcp --permanent
firewall-cmd --zone=public --add-port=3882/tcp --permanent
firewall-cmd --zone=public --add-port=3883/tcp --permanent
//重新加载
firewall-cmd --reload

2.2.7查看他们的状态

/usr/local/solrcloud/zookeeper1/bin/zkServer.sh status
/usr/local/solrcloud/zookeeper2/bin/zkServer.sh status
/usr/local/solrcloud/zookeeper3/bin/zkServer.sh status

这里写图片描述

2.3tomcat安装

2.3.1 下载解压tomcat

wget https://mirrors.tuna.tsinghua.edu.cn/apache/tomcat/tomcat-8/v8.0.42/bin/apache-tomcat-8.0.42.tar.gz

tar zvxf apache-tomcat-8.0.42.tar.gz

2.3.2 把解压后的tomcat复制到/usr/local/solrcloud/目录下复制四份。

/usr/local/solrcloud/tomcat1
/usr/local/solrcloud/tomcat2
/usr/local/solrcloud/tomcat3
/usr/local/solrcloud/tomcat4

2.3.3修改tomcat的server.xml

把其中的端口后都加一。保证两个tomcat可以正常运行不发生端口冲突。

2.4 solr单机部署

请参考我的博客,很详细的教程

http://blog.csdn.net/sfeng95/article/details/63263860

2.5 solrCloud部署

2.5.1 启动zookeeper

solrCloud部署依赖zookeeper,需要先启动每一台zookeeper服务器。

2.5.2 zookeeper管理配置文件

由于zookeeper统一管理solr的配置文件(主要是schema.xml、solrconfig.xml), solrCloud各各节点使用zookeeper管理的配置文件。
将上边部署的solr单机的conf拷贝到/home/solr下。
执行下边的命令将/home/solr/conf下的配置文件上传到zookeeper

注意solr5.和以前版本的目录结构不一样,如果你的版本也是5.*,该命令在/solr/server/scripts/cloud-scripts/zkcli.sh,来到这里执行它

下面的命令请以你们自己的实际IP,实际路径为准
cd /usr/local/data/solr/server/scripts/cloud-scripts
./zkcli.sh -zkhost 192.168.1.105:2181,192.168.1.105:2182,192.168.1.105:2183 -cmd upconfig -confdir /usr/local/data/solr_home1/core01/conf -confname myconf  

这里写图片描述

去任意一个zookeeper的bin目录运行zkCleanup.sh查看配置文件是否上传成功

./zkCleanup.sh

ls /configs/myconf

这里写图片描述

2.5.3 修改SolrCloud监控端口

修改每个solrhome的solr.xml文件。告诉它们监控他们自己的地址,它们tomcat对应的地址

vim /usr/local/data/solr_home1/solr.xml
vim /usr/local/data/solr_home2/solr.xml
vim /usr/local/data/solr_home3/solr.xml
vim /usr/local/data/solr_home4/solr.xml

这里写图片描述

2.5.4每一台solr和zookeeper关联

修改每一台solr的tomcat 的 bin目录下catalina.sh文件中加入DzkHost指定zookeeper服务器地址:

JAVA_OPTS="-DzkHost=192.168.1.105:2181,192.168.1.105:2182,192.168.1.105:2183"
(可以使用vim的查找功能查找到JAVA_OPTS的定义的位置,然后添加)

2.5.5重启所有tomcat

打开任意一台solr都可以看到这样子

这里写图片描述

(真是有的心酸,三更半夜在搞它,原来是4台的,但是有两台tomcat死了)

3.0 SolrCloud集群配置

上图中的collection1集群只有一片,可以通过下边的方法配置新的集群。

如果集群中有四个solr节点创建新集群collection2,将集群分为两片,每片两个副本。

http://192.168.1.105:8081/solr/admin/collections?action=CREATE&name=collection2&numShards=2&replicationFactor=2

这里写图片描述

删除集群命令;

http://192.168.1.105:8081/solr/admin/collections?action=DELETE&name=collection1

执行后原来的collection1删除,如下:

这里写图片描述

启动solrCloud注意

启动solrCloud需要先启动solrCloud依赖的所有zookeeper服务器,再启动每台solr服务器。

猜你喜欢

转载自blog.csdn.net/sfeng95/article/details/63270808