Redisの高度:マスター・スレーブレプリケーションの問題

Redisの高度:マスター・スレーブレプリケーションの問題

1.1 3高いインターネットアーキテクチャ

ここに画像を挿入説明

あなたの「Redisのは」非常に利用できますか?


	单机redis的风险与问题
	问题1.机器故障
		 现象: 硬盘故障、系统崩溃
		 本质: 数据丢失,很可能对业务造成灾难性打击
		 结论: 基本上会放弃使用redis.
	问题2.容量瓶颈
		 现象:内存不足,从16G升级到64G,从64G升级到128G,无限升级内存
		 本质:穷,硬件条件跟不上
		 结论:放弃使用redis
	 结论:
		为了避免单点Redis服务器故障,准备多台服务器,互相连通。 将数据复制多个副本保存在不同的服
		务器上, 连接在一起, 并保证数据是同步的。 即使有其中一台服务器宕机,其他服务器依然可以继续
		提供服务,实现Redis的高可用, 同时实现数据冗余备份。

マスタースレーブレプリケーションのアイデアチャート

ここに画像を挿入説明

ここに画像を挿入説明

主从复制即: 将master中的数据即时、有效的复制到slave中
特征:一个master可以拥有多个slave,一个slave只对应一个master
职责:
 master:
	 写数据
	 执行写操作时,将出现变化的数据自动同步到slave
	 读数据(可忽略)
 slave:
	 读数据
	 写数据(禁止)

概要

ここに画像を挿入説明

接続フェーズから1.2レプリケーションマスタ

ここに画像を挿入説明

マスターコピー1.3の実用的な操作から、

マスターサーバー(39.99.200.XX

サーバから他の二つとして、

106.54.13.XXX 47.96.119.XXX

実用的な操作

プライマリサーバーを変更します

daemonize yes    //后台启动
bind 0.0.0.0     //表示的是允许所有人访问

サーバー構成の変更から

daemonize yes    //后台启动
bind 0.0.0.0     //表示的是允许所有人访问
slaveof 主服务器的ip地址  主服务器端口

次のようにマスターから構成されたかどうかという名前のチェックを使用します

./redis-cli
info

プライマリサーバは以下の通りである場合

ここに画像を挿入説明

サーバーから次の情報

ここに画像を挿入説明

1.4データ同期ワークフローのステージ

阶段二:数据同步阶段工作流程
 在slave初次连接master后,复制master中的所有数据到slave
 将slave的数据库状态更新成master当前的数据库状态

ここに画像を挿入説明

データ同期位相マスターの説明


	1. 如果master数据量巨大,数据同步阶段应避开流量高峰期,避免造成master阻塞,影响业务正常执行
	
	2. 复制缓冲区大小设定不合理,会导致数据溢出。如进行全量复制周期太长,进行部分复制时发现数据已
	经存在丢失的情况,必须进行第二次全量复制,致使slave陷入死循环状态。
	repl-backlog-size 1mb    
	
	3. master单机内存占用主机内存的比例不应过大,建议使用50%-70%的内存,留下30%-50%的内存用于执
	行bgsave命令和创建复制缓冲区


  • ステージスレーブデータ同期命令
1. 为避免slave进行全量复制、部分复制时服务器响应阻塞或数据不同步,建议关闭此期间的对外服务.
	slave-serve-stale-data yes| no
	
2. 数据同步阶段,master发送给slave信息可以理解master是slave的一个客户端,主动向slave发送
命令.

3. 多个slave同时对master请求数据同步,master发送的RDB文件增多,会对带宽造成巨大冲击,如果
master带宽不足,因此数据同步需要根据业务需求,适量错峰.

4. slave过多时, 建议调整拓扑结构,由一主多从结构变为树状结构, 中间的节点既是master,也是
slave。注意使用树状结构时,由于层级深度,导致深度越高的slave与最顶层master间数据同步延迟
较大, 数据一致性变差, 应谨慎选择

1.5コマンドの伝播段階

当master数据库状态被修改后,导致主从服务器数据库状态不一致,此时需要让主从数据同步到一致的
状态,同步的动作称为命令传播。
master将接收到的数据变更命令发送给slave, slave接收命令后执行命令。


主从复制过程大体可以分为3个阶段
 建立连接阶段(即准备阶段)
 数据同步阶段
 命令传播阶段

命令传播阶段出现了断网现象
	 网络闪断闪连
	 短时间网络中断   (进行 部分复制)
	 长时间网络中断   (进行 全量复制)
	
	
 部分复制的三个核心要素
	 服务器的运行 id( run id)
	 主服务器的复制积压缓冲区
	 主从服务器的复制偏移量



IDを実行しているサーバー(RUNID)

概念:服务器运行ID是每一台服务器每次运行的身份识别码,一台服务器多次运行可以生成多个运行id。

组成:运行id由40位字符组成,是一个随机的十六进制字符。
	例如: fdc9ff13b9bbaab28db42b3d50f852bb5e3fcdce
	
作用:运行id被用于在服务器间进行传输,识别身份。
	如果想两次操作均对同一台服务器进行,必须每次操作携带对应的运行id,用于对方识别。
	
实现方式: 运行id在每台服务器启动时自动生成的, master在首次连接slave时,会将自己的运行ID发送给slave, slave保存此ID,通过info Server命令,可以查看节点的runid。

バッファのコピー

概念:复制缓冲区,又名复制积压缓冲区,是一个先进先出( FIFO)的队列, 用于存储服务器执行过的命
令, 每次传播命令, master都会将传播的命令记录下来, 并存储在复制缓冲区

ここに画像を挿入説明

コピー内部の仕組みをバッファリング:

ここに画像を挿入説明

复制缓冲区
	1 概念:复制缓冲区,又名复制积压缓冲区,是一个先进先出( FIFO)的队列, 用于存储服务器执行过的命
	令, 每次传播命令, master都会将传播的命令记录下来, 并存储在复制缓冲区。
	2 复制缓冲区默认数据存储空间大小是1M,由于存储空间大小是固定的,当入队元素的数量大于队列长度时,最先入队		的元素会被弹出,而新元素会被放入队列
	
	3 由来:每台服务器启动时,如果开启有AOF或被连接成为master节点, 即创建复制缓冲区
	
	4 作用:用于保存master收到的所有指令(仅影响数据变更的指令,例如set, select)
	
数据来源:当master接收到主客户端的指令时,除了将指令执行,会将该指令存储到缓冲区中

コピーは、メインサーバ(オフセット)からのオフセット

概念:一个数字,描述复制缓冲区中的指令字节位置
 分类:
	1: master复制偏移量:记录发送给所有slave的指令字节对应的位置(多个)
	2: slave复制偏移量:记录slave接收master发送过来的指令字节对应的位置(一个)
	
 数据来源:
	master端:发送一次记录一次
	slave端:接收一次记录一次
	
 作用:同步信息,比对master与slave的差异,当slave断线后,恢复数据使用

1.6 データ同期+コマンド伝播ステージワークフロー

ここに画像を挿入説明

1.7ハートビートメカニズム

心跳机制

	简述: 进入命令传播阶段候, master与slave间需要进行信息交换,使用心跳机制进行维护,实现双方连接保持在线。
	1: master心跳:
		 指令: PING
		 周期:由repl-ping-slave-period决定,默认10秒
		 作用:判断slave是否在线
		 查询: INFO replication 获取slave最后一次连接时间间隔, lag项维持在0或1视为正常
		
	2: slave心跳任务
		 指令: REPLCONF ACK {offset}
		 周期: 1秒
		 作用1:汇报slave自己的复制偏移量,获取最新的数据变更指令
		 作用2:判断master是否在线
		


注ハートビートのステージ

		

	 当slave多数掉线,或延迟过高时, master为保障数据稳定性,将拒绝所有信息同步操作
		设定最小slave最小连接写数量: min-slaves-to-write 2
		设定slave最小连接时长: min-slaves-max-lag 8
		slave数量少于2个,或者所有slave的延迟都大于等于10秒时,强制关闭master写功能,停止数据同步。
		
	 slave数量由slave发送REPLCONF ACK命令做确认。
	
	 slave延迟由slave发送REPLCONF ACK命令做确认。

1.8完全マスタースレーブレプリケーションのワークフロー

ここに画像を挿入説明

1.9マスター・スレーブレプリケーションのよくある質問

全額を頻繁にコピー(1)

伴随着系统的运行, master的数据量会越来越大,一旦master重启, runid将发生变化,会导致全部slave的全量复制操作.

内部优化调整方案:
	1. master内部创建master_replid变量,使用runid相同的策略生成,长度41位,并发送给所有slave
	2. 在master关闭时执行命令 shutdown save,进行RDB持久化, 将runid与offset保存到RDB文件中
		 repl-id repl-offset 
		 通过redis-check-rdb命令可以查看该信息
	3. master重启后加载RDB文件, 恢复数据
		重启后,将RDB文件中保存的repl-id与repl-offset加载到内存中
			 master_repl_id = repl master_repl_offset = repl-offset
			 通过info命令可以查看该信息
作用:
 	本机保存上次runid,重启后恢复该值,使所有slave认为还是之前的master

全額を頻繁にコピー(2)

 问题现象
	 网络环境不佳,出现网络中断, slave不提供服务
 问题原因
	 复制缓冲区过小,断网后slave的offset越界,触发全量复制
 最终结果
	 slave反复进行全量复制
 解决方案
	 修改复制缓冲区大小: repl-backlog-size
 建议设置如下:
	1. 测算从master到slave的重连平均时长second
	
	2. 获取master平均每秒产生写命令数据总量write_size_per_second
	
	3. 最优复制缓冲区空间 = 2 * second * write_size_per_second

頻繁にネットワーク障害(1)

问题现象
	 master的CPU占用过高 或 slave频繁断开连接
 问题原因
	1 slave每1秒发送REPLCONF ACK命令到master
	2 当slave接到了慢查询时( keys * , hgetall等),会大量占用CPU性能
	3 master每1秒调用复制定时函数replicationCron() ,比对slave发现长时间没有进行响应
 最终结果
	 master各种资源(输出缓冲区、带宽、连接等) 被严重占用
 解决方案
	 通过设置合理的超时时间,确认是否释放slave
	repl-timeout
该参数定义了超时时间的阈值(默认60秒),超过该值,释放slave

頻繁にネットワーク障害(2)

问题现象
	 slave与master连接断开
问题原因
	 master发送ping指令频度较低
	 master设定超时时间较短
	 ping指令在网络中存在丢包
解决方案
	 提高ping指令发送的频度
	
超时时间repl-time的时间至少是ping指令频度的5到10倍,否则slave很容易判定超时

データの不整合

 问题现象:
 	多个slave获取相同数据不同步
 问题原因:
	网络信息不同步,数据发送有延迟
 解决方案
	优化主从间的网络环境,通常放置在同一个机房部署,如使用阿里云等云服务器时要注意此现象.
	
	监控主从节点延迟(通过offset)判断,如果slave延迟过大,暂时屏蔽程序对该slave的数据访问开启后仅响应info、 slaveof等少数命令(慎用,除非对数据一致性要求很高)

2、センチネルモード

ここに画像を挿入説明

Sentinelは、任意の関連性を持っていない彼らのプライマリサーバの大きな音で、任意のサーバにインストールされています

センチネルノード構成:47.96.119.XX

センチネル設定

1、sentinal.xmlのRedis内のファイルは、ディレクトリを抽出コピーには/ usr / local / zhucong /ディレクトリ

2、設定ファイルsentinal.xml

#配置的是配置文件的目录
dir /usr/local/zhucong/
#配置的是监听主服务器信息  最后一个参数很重要 一般设置为1  多少票通过
sentinel monitor mymaster 39.99.200.XX 6379 1
#配置的是意思是心跳信号发给你了 多久没回应就认为主服务器死了...
sentinel down-after-milliseconds mymaster 5000
    
哨兵的启动命令
./redis-server /usr/local/zhucong/sentinel.conf  --sentinel &
公開された50元の記事 ウォン称賛21 ビュー3700

おすすめ

転載: blog.csdn.net/wmlwml0000/article/details/104724367