redis-淘汰策略

将redis用作缓存时,如果内存空间用满,就会自动驱逐老的数据。默认情况下,memcached就是这种方式。


LRU是Redis唯一支持的回收算法。

maxmemory配置指令

maxmemory用于指定Redis能使用的最大内存。既可以在redis.conf文件中配置,也可以在运行过程中通过CONFIG SET命令动态修改。

例如,要设置100MB的内存限制,可以在redis.conf文件中这样配置

maxmemory 100mb

# 将maxmemory设置为0,则表示不进行内存限制。当然,对32位系统来说有一个隐性的限制条件:最多3GB内存。
当内存使用达到最大限制时,如果需要存储新数据,根据配置的淘汰策略不同,Redis可能直接返回错误信息,或者删除部分老的数据。

淘汰策略

达到最大内存限制(maxmemory),redis根据maxmemory-policy配置的策略,来决定具体的行为。

  • noeviction:不删除策略。达到最大内存限制时,如果需要更多内存,直接返回错误信息。大多数写命令都会导致占用更多的内存(极少数里外:DEL)
  • allkeys-lru:所有key通用;优先删除最近最少使用的key
  • volatile-lru:只限于设置了expire的部分;优先删除最近最少使用的key
  • allkeys-random:所有key通用;随机删除一部分key
  • volatile-random:只限于设置了expire的部分;随机删除一部分key
  • volatile-ttl:只限于设置了expire的部分;优先删除剩余时间短的key

如果没有设置expire的key,不满足先决条件;那么volatile-lru,volatile-random和volatile-ttl策略的行为,和noeviction(不删除)基本上一致。

需要根据系统的特征,来选择合适的驱逐策略。当然,在运行过程中也可以通过命令动态设置淘汰策略,并通过INFO命令监控缓存的miss和hit,来进行调优

一般来说:

  • 如果分为热数据与冷数据,推荐使用allkeys-lru策略。也就是说,其中一部分key经常被读写。如果不确定具体的业务特征,那么allkeys-lru是一个很好的选择。
  • 如果需要循环读写所有的keys,或者各个key的访问频率差不多,可以使用allkeys-random策略,即读写所有元素的概率该不多。
  • 假如要让redis根据TTL来筛选需要删除的key,请使用volatile-ttl策略。

volatile-lru和volatile-random策略主要应用场景是:既有缓存,又有持久key的实例中。一般来说,这样的场景,应该有两个单独的redis实例。

注意:设置expire会消耗额外的内存,所以使用allkeys-lru策略,可以更高效地利用内存,因为这样可以不再设置过期时间了。

淘汰的内部实现

淘汰过程可以这样理解:

  • 客户端执行一个命令,导致redis中的数据增加,占用更多内存
  • redis检查内存使用量,如果超出maxmemory限制,根据策略清除部分key
  • 继续执行下一条命令,以此类推。

在这个过程中,内存使用量会不断达到limit值,然后超过,然后删除部分key,使用量又下降到limit值之下。

如果某个命令导致大量内存(比如key保存一个很大的set),在一段时间内,可能内存的使用量会明显超过maxmemory限制。

近似LRU算法

Redis使用的并不是完全的LRU算法。自动驱逐key,并不一定是最满足LRU特征那个。而是通过近似LRU算法,抽取少量的key样本,然后删除其中访问时间最古老的那个key

驱逐算法, 从 Redis 3.0 开始得到了巨大的优化, 使用 pool(池子) 来作为候选. 这大大提升了算法效率, 也更接近于真实的LRU算法。

在 Redis 的 LRU 算法中, 可以通过设置样本(sample)的数量来调优算法精度。 通过以下指令配置:

maxmemory-samples 5

为什么不使用完全LRU实现? 原因是为了节省内存。但 Redis 的行为和LRU基本上是等价的. 下面是 Redis LRU 与完全LRU算法的一个行为对比图。

测试过程中, 依次从第一个 key 开始访问, 所以最前面的 key 才是最佳的驱逐对象。

从图中可以看到三种类型的点, 构成了三个不同的条带。

  • 浅灰色部分表示被驱逐的对象。
  • 灰色部分表示 “未被驱逐” 的对象。
  • 绿色部分表示后面加入的对象。

在纯粹的LRU算法实现中, 前半部分旧的key被释放了。而 Redis 的 LRU 算法只是将时间较长的 key 较大概率地(probabilistically)释放了。

如你所见, Redis 3.0 中, 5样本的效果比 Redis 2.8 要好很多。 当然, Redis 2.8 也不错,最后访问的key基本上都还留在内存中. 在 Redis 3.0 中使用 10 样本时, 已经非常接近纯粹的LRU算法了。

注意,LRU只是用来预测将来可能会继续访问某个key的一个概率模型. 此外,如果数据访问的情况符合幂律分布(power law), 那么对于大部分的请求来说, LRU都会表现良好。

在模拟中, 我们发现, 如果使用幂律方式访问, 纯粹的LRU和Redis的结果差别非常, 甚至看不出来。

当然也可以将样本数量提高到10, 以额外消耗一些CPU为代价, 使得结果更接近于真实的LRU, 并通过 cache miss 统计信息来判断差异。

设置样本大小很容易, 使用命令 CONFIG SET maxmemory-samples <count> 即可。

原文:https://blog.csdn.net/ligupeng7929/article/details/79603060

猜你喜欢

转载自www.cnblogs.com/Xuuuuuu/p/10796004.html