Redis之AOF持久化详解

版权声明:士,不可以不弘毅,任重而道远 https://blog.csdn.net/superbeyone/article/details/87874313


Redis之AOF持久化详解

1. AOF持久化配置

AOF持久化,默认是关闭的,默认是打开RDB持久化

redis.conf 文件,也就是/etc/redis/6379.conf,配置持久化 ,参考 Redis搭建实施方案

appendonly yes,可以打开AOF持久化机制,在生产环境里面,一般来说AOF都是要打开的,除非认为丢几分钟的数据对服务不影响

打开AOF持久化机制之后,redis每次接收到一条写命令,都会写入日志文件中,当然是先写入到os cache,然后每隔一定时间再fsync一下

而且即使AOF和RDB都开启了,redis重启的时候,也是优先通过AOF进行数据恢复的,因为AOF数据比较完整

2. AOFfsync配置策略

  1. 每次写入一条数据就执行一次fsync
    always:每次写入一条数据,立即将这个数据对应的写日志fsync到磁盘上去,性能非常非常差,吞吐量很低;如果要确保说redis里的数据一条都不丢,那就只能这样了
  2. 每隔一秒执行一次fsync
    everysec:每秒将os cache中的数据fsync到磁盘,这个最常用的,生产环境一般都这么配置,性能很高,QPS还是可以上万的
  3. 不主动执行fsync
    no:仅仅redis负责将数据写入os cache就不管了,然后后面os自己会时不时由自己的策略将数据刷入磁盘,不可控

3. AOF rewrite

redis中的数据其实有限的,很多数据可能会自动过期,可能会被用户删除,可能会被redis用缓存清除的算法清理掉

redis中的数据会不断淘汰掉旧的,就一部分常用的数据会被自动保留在redis内存中

所以可能很多之前的已经被清理掉的数据,对应的写日志还停留在AOF中,因为AOF日志文件就一个,会不断的膨胀到很大很大

所以AOF会自动在后台每隔一定时间做rewrite操作,比如日志里已经存放了针对100w数据的写日志了; redis内存只剩下10万; 基于内存中当前的10万数据构建一套最新的日志到AOF中;覆盖之前的老日志;确保AOF日志文件不会过大,保持跟redis内存数据量一致

redis 2.4之前,还需要手动开发一些脚本,crontab,通过BGREWRITEAOF命令去执行AOF rewrite,但是redis 2.4之后会自动进行rewrite操作

在redis.conf中,可以配置rewrite策略

auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb

比如说上一次AOF rewrite之后,是128mb

然后就会接着128mb继续写AOF的日志,如果发现增长的比例,超过了之前的100%,256mb,就可能会去触发一次rewrite

但是此时还要去跟min-size,64mb去比较,256mb > 64mb,才会去触发rewrite

流程:

  1. redis fork一个子进程
  2. 子进程基于当前内存中的数据,构建日志,开始往一个新的临时的AOF文件中写入日志
  3. redis主进程接收到client新的写操作之后,在内存中写入日志,同时新的日志也继续写入旧的AOF文件
  4. 子进程写完新的日志文件之后,redis主进程将内存中的新日志再次追加到新的AOF文件中
  5. 用新的日志文件替换掉旧的日志文件

4. AOF破损文件修复

如果redis在append数据到AOF文件时,机器宕机了,可能会导致AOF文件破损

redis-check-aof --fix命令来修复破损的AOF文件

5. AOFRDB同时工作

  1. 如果RDB在执行snapshotting操作,那么redis不会执行AOF rewrite;如果redis在执行AOF rewrite,那么就不会执行RDB snapshotting
  2. 如果RDB在执行snapshotting,此时用户执行BGREWRITEAOF命令,那么等RDB快照生成之后,才会去执行AOF rewrite
  3. 同时有RDB snapshot文件和AOF日志文件,那么redis重启的时候,会优先使用AOF进行数据恢复,因为其中的日志更完整

猜你喜欢

转载自blog.csdn.net/superbeyone/article/details/87874313