NoSQL之redis(分布式集群)

1.集群架构:

image

解释:

  • 所有的redis节点彼此互联(PING-PONG机制),内部使用二进制协议优化传输速度和带宽。
  • 节点的fail是通过集群中超过半数的节点检测失效时才生效.
  • 客户端与redis节点直连,不需要中间proxy层.客户端不需要连接集群所有节点,连接集群中任何一个可用节点即可
  • redis-cluster把所有的物理节点映射到[0-16383]slot上,cluster 负责维护

Redis 集群中内置了 16384 个哈希槽,当需要在 Redis 集群中放置一个 key-value 时,

redis 先对 key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数,

这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,redis 会根据节点数量大致均等的将哈希槽映射到不同的节点

image

误区解释:这里的集群和主从复制不同,这里的集群中所有的都是mater,都有单节点顾长官问题,而主从复制只是解决单点故障问题,

如果想让集群模式下午单点故障问题,需要给每一个master进行主从复制。

扫描二维码关注公众号,回复: 4661643 查看本文章

2.redis-cluster 投票容错

image

  • 集群中所有master参与投票,如果半数以上master节点与其中一个master节点通信超过(cluster-node-timeout),认为该master节点挂掉。

集群不可用状态的判断:

  • 如果集群任意master挂掉,且当前master没有slave,则集群进入fail状态。也可以理解成集群的[0-16383]slot映射不完全时进入fail状态。
  • 如果集群超过半数以上master挂掉,无论是否有slave,集群进入fail状态。

3.redis集群的搭建

    ①ruby的安装

         由于集群管理工具(redis-trib.rb)是使用ruby脚本语言编写的,所以需要ruby的环境

第一步:安装ruby

[root@hdp01 bin2]# yum install ruby

[root@hdp01 bin2]# yum install rubygems

第二步:将redis-3.0.0.gem文件上传到linux系统

第三步:安装ruby和redis接口

[root@hdp01 ~]# gem install redis-3.0.0.gem

第四步:将redis-3.0.0包下src目录中的以下文件拷贝到redis19/redis-cluster/

image

第五步:查看是否拷贝成功

image

②搭建集群:

这里使用3台服务器模拟redis集群。
第一步:复制出redis到一个机器中
[root@hdp01 redis]# scp  /xxx/redis-3.0.0 -r  hostname01:~/apps

第二步:如果存在持久化文件,则删除

[root@hdp01 app]# rm -rf appendonly.aof dump.rdb

第三步:设置集群参数

开启集群模式:

image

 

第五步:复制redis服务到其他机器中

[root@hdp01 redis]# scp  /xxx/redis-3.0.0 -r  hostname02:~/apps
[root@hdp01 redis]# scp  /xxx/redis-3.0.0 -r  hostname03:~/apps

第七步:启动三台机器
[root@hdp01 redis]#redis-server redis.conf(三台机器中都开启)

第九步:创建集群
[root@hdp01 redis-cluster]# ./redis-trib.rb create --replicas 1\
192.168.130.128:6379 \
192.168.130.129:6379 \
192.168.130.130:6379 \

>>> Creating cluster

Connecting to node 192.168.242.137:7001: OK

Connecting to node 192.168.242.137:7002: OK

Connecting to node 192.168.242.137:7003: OK

Connecting to node 192.168.242.137:7004: OK

Connecting to node 192.168.242.137:7005: OK

Connecting to node 192.168.242.137:7006: OK

>>> Performing hash slots allocation on 6 nodes...

Using 3 masters:

192.168.242.137:7001

192.168.242.137:7002

192.168.242.137:7003

Adding replica 192.168.242.137:7004 to 192.168.242.137:7001

Adding replica 192.168.242.137:7005 to 192.168.242.137:7002

Adding replica 192.168.242.137:7006 to 192.168.242.137:7003

M: 8240cd0fe6d6f842faa42b0174fe7c5ddcf7ae24 192.168.242.137:7001

slots:0-5460 (5461 slots) master

M: 4f52a974f64343fd9f1ee0388490b3c0647a4db7 192.168.242.137:7002

slots:5461-10922 (5462 slots) master

M: cb7c5def8f61df2016b38972396a8d1f349208c2 192.168.242.137:7003

slots:10923-16383 (5461 slots) master

S: 66adf006fed43b3b5e499ce2ff1949a756504a16 192.168.242.137:7004

replicates 8240cd0fe6d6f842faa42b0174fe7c5ddcf7ae24

S: cbb0c9bc4b27dd85511a7ef2d01bec90e692793b 192.168.242.137:7005

replicates 4f52a974f64343fd9f1ee0388490b3c0647a4db7

S: a908736eadd1cd06e86fdff8b2749a6f46b38c00 192.168.242.137:7006

replicates cb7c5def8f61df2016b38972396a8d1f349208c2

Can I set the above configuration? (type 'yes' to accept): yes

>>> Nodes configuration updated

>>> Assign a different config epoch to each node

>>> Sending CLUSTER MEET messages to join the cluster

Waiting for the cluster to join..

>>> Performing Cluster Check (using node 192.168.242.137:7001)

M: 8240cd0fe6d6f842faa42b0174fe7c5ddcf7ae24 192.168.242.137:7001

slots:0-5460 (5461 slots) master

M: 4f52a974f64343fd9f1ee0388490b3c0647a4db7 192.168.242.137:7002

slots:5461-10922 (5462 slots) master

M: cb7c5def8f61df2016b38972396a8d1f349208c2 192.168.242.137:7003

slots:10923-16383 (5461 slots) master

M: 66adf006fed43b3b5e499ce2ff1949a756504a16 192.168.242.137:7004

slots: (0 slots) master

replicates 8240cd0fe6d6f842faa42b0174fe7c5ddcf7ae24

M: cbb0c9bc4b27dd85511a7ef2d01bec90e692793b 192.168.242.137:7005

slots: (0 slots) master

replicates 4f52a974f64343fd9f1ee0388490b3c0647a4db7

M: a908736eadd1cd06e86fdff8b2749a6f46b38c00 192.168.242.137:7006

slots: (0 slots) master

replicates cb7c5def8f61df2016b38972396a8d1f349208c2

[OK] All nodes agree about slots configuration.

>>> Check for open slots...

>>> Check slots coverage...

[OK] All 16384 slots covered.

    ③测试集群是否搭建成功

      [root@hdp01 7001]# ./redis-cli -h 192.168.130.130-p 6379 –c #连接集群

      相关命令介绍:

192.168.130.130:6379> cluster info  #查看集群信息
192.168.130.130:6379> cluster nodes  #查看集群节点

猜你喜欢

转载自blog.51cto.com/14048416/2335746