Redis笔记(一)-Redis持久化

版权声明:本文为博主原创文章,转载添加原文链接 https://blog.csdn.net/qq_34190023/article/details/82715705

Redis持久化

1、故障发生的时候会怎么样

2、如何应对故障的发生

redis的持久化,RDB,AOF,区别、工作机制,各自的特点是什么,适合什么场景。如何抉择

redis的企业级的持久化方案是什么,是用来跟哪些企业级的场景结合起来使用的???

 

如果想redis仅作为纯内存的缓存来用,可禁止RDB和AOF所有的持久化机制

 

Redis持久化的作用:

Redis所有的数据都保存在内存中,对数据的更新将异步地保存在磁盘上

 

Redis持久化与高可能有很大关系。

Redis持久化的意义:

在于数据备份和故障恢复。持久化主要是做灾难恢复,数据恢复

部署一个redis作为cache缓存,或保存一些较为重要的数据

如果没有持久化,redis遇到灾难性故障时,由于redis数据存储在内存中,就会丢失所有的数据

如果通过持久化将数据搞一份儿在磁盘上去,然后定期比如说同步和备份到一些云存储服务上去,就可以保证数据不丢失全部,还是可以恢复一部分数据回来的。

对于企业级的redis架构来说,持久化是不可减少的

企业级redis集群架构:海量数据、高并发、高可用

 

Redis持久化的重要性-缓存雪崩

如redis不可用了,要做的事是让redis尽快变得可用,重启redis,尽快让它对外提供服务,

如果没做数据备份,这时redis启动了也不可用,因为数据都没了。

有可能大量的请求过来,缓存全部无法命中,在redis里找不到数据,这时缓存雪崩问题,所有请求,没有在redis命中,就会去mysql数据库这种数据源头中去找,一下子mysql承接高并发,然后就挂了。

mysql挂掉,数据也就无法恢复到redis里面去。redis的数据从mysql来。。。

 

如果把redis的持久化做好,备份和恢复方案做到企业级的程度,即使redis故障了,也可通过备份数据,快速恢复,一旦恢复立即对外提供服务。

 

 

缓存雪崩解决方案:

具体的完整的缓存雪崩的场景,还有企业级的解决方案,到后面讲

Redis持久化和高可用是有关系的。企业级redis架构中去讲解

 

 

持久化的方式:

  1. 快照(先把数据拷贝出来,做个备份):Mysql Dump 和 Redis RDB
  2. 日志(某时某点的日志记录):MySQL Binlog和Hbase HLog和Redis AOF

PDB(快照)和AOF(日志)

 

RDB和AOF两种持久化机制的工作原理:

 

AOF日志会越来越大。

Redis通过rewrite的机制,让AOF文件不至于太庞大。就是大概是数据量多的时候,重写一个新的,把不需要的剔除。

 

 

RDB和AOF两种持久化机制的介绍:

RDB持久化机制:对redis中的数据执行周期性的持久化

AOF持久化机制:对每条写入命令作为日志,以append-only的模式写入一个日志文件中,在redis重启时,可通过回放AOF日志中的写入指令来重新构建整个数据集

 

RDB或AOF都可将redis内存中的数据给持久化到磁盘上面来,然后可将这些数据备份到云服务器,如阿里云。

如果redis挂了,服务器上的内存和磁盘上的数据都丢了,可从云服务上拷贝回来之前的数据,放到指定的目录中,然后重新启动redis,redis就会自动根据持久化数据文件中的数据,去恢复内存中的数据,继续对外提供服务。

 

注:如果同时用RDB和AOF两种持久化机制,在redis重启时,会用AOF来重新构建数据,因AOF中的数据更加完整

 

1、RDB(快照)持久化机制

1)工作流程

(1)redis根据配置尝试去生成rdb快照文件

(2)fork一个子进程出来

(3)子进程尝试将数据dump到临时的rdb快照文件中

(4)完成rdb快照文件的生成之后,就替换之前的旧的快照文件

只有一个dump.rdb(二进制文件,可以直接载入),每次生成一个新的快照,会覆盖之前的老快照

 

2)优点:

(1)适合做冷备:RDB会生成多个数据文件,每个数据文件都代表了某一时刻中redis的数据,这种多个数据文件的方式,适合做冷备,可以将这种完整的数据文件发送到一些远程的安全存储上去,如Amazon的S3云服务,阿里云的ODPS分布式存储上,以预定好的备份策略来定期备份redis中的数据

 

关于冷备:

RDB可以做冷备,生成多个文件,每个文件都代表了某一个时刻的完整的数据快照

AOF也可以做冷备,只有一个文件,但是可以每隔一定时间去copy一份这个文件出来

 

RDB做冷备,优势在由redis去控制固定时长生成快照文件的事情,比较方便; ,在最坏的情况下,提供数据恢复的时候,速度比AOF快

AOF还需自己写一些脚本去做这个事情,各种定时。

(2)RDB对redis对外提供的读写服务,影响小,可让redis保持高性能,因为redis主进程只需要fork一个子进程,让子进程执行磁盘IO操作来进行RDB持久化即

RDB,每次写,都是直接写redis内存,只是在一定时,才会将数据写入磁盘中

AOF,每次都是要写文件的,虽然可以快速写入os cache中,但还是有一定的时间开销,速度肯定比RDB略慢一些

 

(3)相对于AOF持久化机制来说,直接基于RDB数据文件来重启和恢复redis进程,更加快速

AOF存放的指令日志,做数据恢复时,要回放和执行所有的指令日志来恢复出来内存中的所有数据

RDB,就是一份数据文件,恢复的时候,直接加载到内存中即可

 

结合上述优点,RDB特别适合做冷备份

 

3)缺点:

(1)丢失数据多:如果想在redis故障时,尽可能少的丢失数据,不及AOF。一般RDB数据快照文件是每隔5分钟,或更长时间生成一次,一旦redis进程宕机,会丢失最近5分钟的数据。丢失的数据可能比较多。

所以RDB不适合做第一优先的恢复方案,所以默认是采用AOF进行第一优先恢复

(2)RDB每次在fork子进程来执行RDB快照数据文件生成的时候,如果数据文件特别大,可能导致对客户端提供的服务暂停数毫秒,或者甚至数秒。

一般不要让RDB的间隔太长,否则每次生成的RDB文件太大,对redis本身的性能可能会有影响的

 

耗时、耗性能(大量消耗性能)。不可控、丢失数据(如果save过程中中途宕机,其他的数据就会丢失,即使是定时策略,也存在这种问题,因为无法保证什么时候宕机)。

 

 

4)配置RDB持久化:

redis.conf文件,也就是/etc/redis/6379.conf,去配置持久化

save 60 1000

每隔60s,如果超过1000个key发生了变更,就生成一个新的dump.rdb文件,当前redis内存中完整的数据快照,这个操作也被称之为snapshotting,快照

也可手动调用save或bgsave命令,同步或异步执行rdb快照生成

 

save可以设置多个,就是多个snapshotting检查点,每到一个检查点,就会去check一下,是否有指定的key数量发生了变更,如果有,就生成一个新的dump.rdb文件

 

5)生成RDB文件的三种触发方式:

Save(同步)、bgsave(异步)、自动

(1)save命令:复杂度:O(N)、不同步

文件策略:如果存在老的RDB文件,新的替换老的

(2)bgsave命令:文件策略和复杂度与save相同

两种方式比较:

 

(3)配置文件配置的方式:配置文件配置save seconds changes。但是这样无法控制save频率。

最佳配置:

 

 

6)基于RDB持久化机制的数据恢复实验

(1)在redis中保存几条数据,立即停掉redis进程,然后重启redis,看看刚才插入的数据还在不在?

数据还在,为什么?

因为通过redis-cli SHUTDOWN这种方式去停掉redis是一种安全退出的模式,redis在退出的时候会将内存中的数据立即生成一份完整的rdb快照

/var/redis/6379/dump.rdb

(2)在redis中再保存几条新的数据,用kill -9粗暴杀死redis进程,模拟redis故障异常退出,导致内存数据丢失的场景。redis进程异常被杀掉,数据没有进dump文件,几条最新的数据就丢失了

(2)手动设置一个save检查点,save 5 1   5秒钟一次snapshotting

(3)写入几条数据,等待5秒钟,会发现自动进行了一次dump rdb快照,在dump.rdb中发现了数据

(4)异常停掉redis进程,再重新启动redis,看刚才插入的数据还在

 

rdb的手动配置检查点,以及rdb快照的生成,包括数据的丢失和恢复

 

7)总结

1.     RDB是Redis内存到硬盘的快照,用于持久化。

2.     save通常会阻塞Redis。影响其他客户端连接时间。

3.     bgsave不会阻塞Redis ,但是会fork新进程。

4.     save自动配置满足任一就会被执行。

5.     有些触发机制不容忽视

 

2、AOF(日志)持久化机制

以日志的形式来记录每个写操作(读操作不记录),将Redis执行过的所有写指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作

 

•      开启:默认AOF没有开启:appendonly no #如果要开启,改为yes

注意的是启动的目录和保存aof文件目录是否一致

•      修复:使用redis-check-aof –fix 进行修复

•      恢复:重启redis然后重新加载

5)AOF破损文件的修复

如果redis在append数据到AOF文件时,机器宕机了,可能会导致AOF文件破损

redis-check-aof --fix命令来修复破损的AOF文件

 

AOF默认名称:appendonlyfilename   appendonly.aof

 

1)AOF工作原理与rewrite重写机制

工作原理:

(1)redis fork一个子进程

(2)子进程基于当前内存中的数据,构建日志,开始往一个新的临时的AOF文件中写入日志

(3)redis主进程,接收到client新的写操作之后,在内存中写入日志,同时新的日志也继续写入旧的AOF文件

(4)子进程写完新的日志文件之后,redis主进程将内存中的新日志再次追加到新的AOF文件中

(5)用新的日志文件替换掉旧的日志文件

 

重写机制:把过期的,重复的,没有用的,都丢掉,只留了有用的。减少磁盘的占用量,加速恢复速度。

AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制,当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩,只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof

AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename),

遍历新进程的内存中数据,每条记录有一条的Set语句。重写aof文件的操作,并没有读取旧的aof文件,

而是将整个内存中的数据库内容用命令的方式重写了一个新的aof文件,这点和快照有点类似

Rewrite触发机制:

Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发。默认64M。

 

AOF日志膨胀:

redis中的数据有限,很多数据或自动过期,或被用户删除,或被redis用缓存清除的算法清理掉。

redis中的数据会不断淘汰掉旧的,就一部分常用的数据会被自动保留在redis内存中

所以可能很多之前的已经被清理掉的数据,对应的写日志还停留在AOF中,AOF日志文件就一个,会不断的膨胀

 

解决方案-rewrite:

AOF会自动在后台每隔一定时间做rewrite操作,如日志里已存放针对100w数据的写日志; redis内存只剩下10万; 基于内存中当前的10万数据构建一套最新的日志,到AOF中; 覆盖之前的老日志; 确保AOF日志文件不会过大,保持跟redis内存数据量一致

 

redis 2.4之前,需要手动开发一些脚本,crontab,通过BGREWRITEAOF命令去执行AOF rewrite,

redis 2.4之后,会自动进行rewrite操作

 

在redis.conf中,可以配置rewrite策略:

auto-aof-rewrite-percentage 100

auto-aof-rewrite-min-size 64mb

 

比如说上一次AOF rewrite之后,是128mb、然后就会接着128mb继续写AOF的日志,如果发现增长的比例,超过了之前的100%,256mb,就可能会去触发一次rewrite。但是还要去跟min-size,64mb去比较,256mb > 64mb,才会去触发rewrite。

 

2)优点:

(1)数据丢失少:AOF可更好的保护数据不丢失,一般AOF会每隔1秒,通过一个后台线程执行一次fsync操作,保证os cache中的数据写入磁盘中,最多丢失1秒钟的数据

(2)AOF日志文件以append-only模式写入,所以没有任何磁盘寻址的开销,写入性能非常高,而且文件不容易破损,即使文件尾部破损,也很容易修复(提供了工具)

(3)AOF日志文件即使过大的时候,出现后台重写操作也不会影响客户端的读写。因为在rewrite log时,会对其中的指导进行压缩,创建出一份需要恢复数据的最小日志出来。再创建新日志文件的时候,老的日志文件还是照常写入。当新的merge后的日志文件ready的时候,再交换新老日志文件即可。

(4)AOF日志文件的命令通过非常可读的方式进行记录,这个特性非常适合做灾难性的误删除的紧急恢复。如某人不小心用flushall命令清空了所有数据,只要这个时候后台rewrite还没有发生,那么就可以立即拷贝AOF文件,将最后一条flushall命令给删了,然后再将该AOF文件放回去,就可以通过恢复机制,自动恢复所有数据(很少使用到)

 

3)缺点:

(1)对于同一份数据来说,AOF日志文件通常比RDB数据快照文件更大

(2)AOF开启后,支持的写QPS会比RDB支持的写QPS低,因为AOF一般会配置成每秒fsync一次日志文件,当然,每秒一次fsync,性能也还是很高的。

如果要保证一条数据都不丢,可以AOF的fsync设置成每写入一条数据,fsync一次,但这样redis的QPS大降

(3)以前AOF发生过bug,就是通过AOF记录的日志,进行数据恢复的时候,没有恢复一模一样的数据出来。所以说,类似AOF这种较为复杂的基于命令日志/merge/回放的方式,比基于RDB每次持久化一份完整的数据快照文件的方式,更加脆弱一些,容易有bug。不过AOF就是为了避免rewrite过程导致的bug,因此每次rewrite并不是基于旧的指令日志进行merge的,而是基于当时内存中的数据进行指令的重新构建,这样健壮性会好很多。

(4)唯一的比较大的缺点,其实就是做数据恢复的时候,会比较慢,还有做冷备,定期的备份,不太方便,可能要自己手写复杂的脚本去做,做冷备不太合适

 

•      相同数据集的数据而言aof文件要远大于rdb文件,恢复速度慢于rdb

•      aof运行效率要慢于rdb,每秒同步策略效率较好,不同步效率和rdb相同

 

4)AOF持久化的配置

AOF持久化,默认是关闭的,默认是打开RDB持久化

appendonly yes,打开AOF持久化机制,在生产环境一般来说AOF都是打开的,除非允许随便丢个几分钟的数据。

打开AOF持久化机制后,redis每次接收到一条写命令,就会写入日志文件中,当然是先写入os cache的,然后每隔一定时间再fsync一下

即使AOF和RDB都开启了,redis重启的时候,也是优先通过AOF进行数据恢复的,因为aof数据比较完整

可以配置AOF的fsync策略,有三种策略,

1.always:每次写入一条数据就执行一次fsync; 每次写入一条数据,立即将这个数据对应的写日志fsync到磁盘上去,性能非常非常差,吞吐量很低; 确保redis里的数据一条都不丢

2. everysec(默认): 每隔一秒执行一次fsync; 每秒将os cache中的数据fsync到磁盘,最常用的,生产环境一般都这么配置,性能很高,QPS还是可以上万的

3.no: 不主动执行fsync。仅仅redis负责将数据写入os cache就撒手不管了,后面os自己会时不时有自己的策略将数据刷入磁盘,不可控了

 

mysql -> 内存策略,大量磁盘,QPS到一两k。QPS,每秒钟的请求数量

redis -> 内存,磁盘持久化,QPS到多少,单机,一般来说,上万QPS没问题

 

 

5)AOF日志修改策略(3种):

三种appendfsysnc:同步策略:

•      每修改同步:appendfsync always 同步持久化 每次发生数据变更会被立即记录到磁盘 性能较差但数据完整性比较好

•      每秒同步:appendfsync everysec(默认)异步操作,每秒记录 如果一秒内宕机,有数据丢失

•      不同步:appendfsync no 从不同步

能保证保护硬盘。有可能会丢失数据

 

 

6)AOF重写实现方式(2种):

一种是bgrewriteaof。一种是AOF重写配置

AOF重写配置:

多大后需要重写

触发时机:

自动触发时机=

aof_current_size>auto-aof-rewrite-min-size&&(aof_current_size-aof_base_size)/aof_base_size>=auto-aof-rewrite-percentage

 

7)AOF持久化的数据恢复实验

(1)先仅仅打开RDB,写入一些数据,然后kill -9杀掉redis进程,重启redis,发现数据没了,因为RDB快照还没生成

(2)打开AOF的开关,启用AOF持久化

(3)写入一些数据,观察AOF文件中的日志内容

其实在appendonly.aof文件中,可以看到刚写的日志,它们其实就是先写入os cache的,然后1秒后才fsync到磁盘中,只有fsync到磁盘中了,才是安全的,要不然光是在os cache中,机器只要重启,就什么都没了

(4)kill -9杀掉redis进程,重新启动redis进程,发现数据被恢复回来了,就是从AOF文件中恢复回来的

 

redis进程启动的时候,直接就会从appendonly.aof中加载所有的日志,把内存中的数据恢复回来

 

总结:

•      AOF 文件是一个只进行追加的日志文件

•      Redis可以在AOF文件体积变得过大时,自动地在后台对AOF进行重写

•      AOF文件有序地保存了对数据库执行所有写入操作,这些写入操作作为redis协议的格式保存,因此AOF文件的内容非常容易被人读懂,对文件进行分析也很轻松

•      对于相同的数据集来说,AOF文件的体积通常大于RDB文件的体积,根据所使用的fsync策略,AOF的速度可能会慢于RDB

 

3、RDB和AOF如何选择:

(1)不要仅仅使用RDB,因为会导致丢失很多数据

(2)也不要仅仅使用AOF,因为有两个问题,

第一,通过AOF做冷备,没有RDB做冷备,来的恢复速度更快;

第二,RDB每次简单粗暴生成数据快照,更加健壮,可以避免AOF这种复杂的备份和恢复机制的bug

(3)综合使用AOF和RDB两种持久化机制,用AOF来保证数据不丢失,作为数据恢复的第一选择; 用RDB来做不同程度的冷备,在AOF文件都丢失或损坏不可用的时候,还可以使用RDB来进行快速的数据恢复

 

只做缓存:如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式.

同时开启两种持久化方式 
–在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据, 因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整. 
–RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件。那要不要只使用AOF呢? 

不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份), 快速重启,而且不会有AOF可能潜在的bug,留着作为一个万一的手段。

 

AOF和RDB同时工作

(1)如果RDB在执行snapshotting操作,那么redis不会执行AOF rewrite; 如果redis再执行AOF rewrite,那么就不会执行RDB snapshotting

(2)如果RDB在执行snapshotting,此时用户执行BGREWRITEAOF命令,那么等RDB快照生成之后,才会去执行AOF rewrite

(3)同时有RDB snapshot文件和AOF日志文件,那么redis重启的时候,会优先使用AOF进行数据恢复,因为其中的日志更完整

 

Q:同时出现RDB和AOF是冲突呢?还是协作?

协作,不会冲突! 那么是如何协作,首先加载哪一个文件呢?

进行测试,生成dump.rdb和appendonly.aof文件,然后在appendonly.aof使文件最后随便加入一些东西,使文件出错,然后重新启动redis服务,发现服务没有启动成功!那么就可以知道首先加载的是aof文件,使用redis-check-aof 工具修复aof文件,重新启动,发现启动成功!

总结:两者可以共存,但是首先启动找的是aof。

当redis服务器挂掉时,重启时将按照以下优先级恢复数据到内存:

如果只配置AOF,重启时加载AOF文件恢复数据;

如果同时 配置了RBD和AOF,启动是只加载AOF文件恢复数据;

如果只配置RBD,启动是讲加载dump文件恢复数据。

恢复时需要注意,要是主库挂了不能直接重启主库,否则会直接覆盖掉从库的AOF文件,一定要确保要恢复的文件都正确才能启动,否则会冲掉原来的文件。

如何修复:redis-check-aof –fix appendonly.aof

 

 

 

 

持久化恢复:

查看日志

看到有临时子进程

一段时间后就没了子进程

 

 

猜你喜欢

转载自blog.csdn.net/qq_34190023/article/details/82715705