[] Redis gold and three silver four underlying hot spot interview realized articles

0. Introduction

Plan to sort out three points hot issues related Redis of this chapter is to achieve the underlying mountains, through this article you will learn the following:

  • Redis authors, the development and evolution of the status to

  • Overview Redis interview questions

  • Redis underlying implementation-related issues, including:

      **常用数据类型底层实现、SDS的原理和优势、字典的实现原理、跳表和有序集合的原理、Redis的线程模式和服务模型**
    

Tips :
content is not difficult, you do not look afraid .

I can not read the first collection to Mark, until the in-depth study of the ability to turn out on time, you will find it is really dry 24K! Stop bragging about, write something different character now!

1.Redis past

Redis is an open source written in ANSI C, support network, based on memory, optional high-performance persistent key-value pair database. Redis's father is from Sicily, Italy's
Salvatore Sanfilippo , Github screen name antirez, I find some brief information about the author and translated as:

Since 2009 the first version of Redis has gone through 10 years, currently Redis is still one of the most popular key-value type memory database.

Excellent open source project can not do without the support of big companies, until May 2013, which was developed by
VMware sponsorship, during May 2013 to June 2015, which was developed by
Bi WeTop sponsorship, from June 2015 start, Redis developed by
Redis Labs sponsorship.

I also used some other NoSQL, supported by some type of value is very simple, so many operations must be implemented on the client, such as value is a structured data, you need to modify one of these fields will need to modify the overall read out again overall written, appeared to be very heavy, but Redis supports multiple types of value to achieve a number of actions the server can be completed, this is very convenient for clients concerned.

当然Redis由于是内存型的数据库,数据量存储量有限而且分布式集群成本也会非常高,因此有很多公司开发了基于SSD的类Redis系统,比如
360开发的SSDB、Pika等数据库
,但是笔者认为
从0到1的难度是大于从1到2的难度
的,毋庸置疑Redis是NoSQL中浓墨重彩的一笔,值得我们去深入研究和使用。

2.Redis的江湖地位

Redis提供了Java、C/C++、C#、 PHP 、JavaScript、 Perl 、Object-C、Python、Ruby、Erlang、Golang等
多种主流语言的客户端
,因此无论使用者是什么语言栈总会找到属于自己的那款客户端,受众非常广。

笔者查了datanyze.com网站看了下Redis和MySQL的
最新市场份额和排名
对比以及
全球Top站点的部署量
对比(网站数据更新到写作当日2019.12.11):


可以看到
Redis总体份额排名第9并且在全球Top100站点中部署数量与MySQL基本持平
,所以Redis还是有一定的江湖地位的。

3.聊聊实战

目前Redis发布的稳定版本已经到了5.x,功能也越来越强大,从国内外互联网公司来看Redis几乎是
标配了。作为开发人员在日常笔试面试和工作中遇到Redis相关问题的概率非常大,掌握Redis的相关知识点都十分有必要。

学习和梳理一个复杂的东西肯定不能胡子眉毛一把抓
,每个人都有自己的认知思路,笔者认为要从充分掌握Redis需要
从底向上、从外到内
去理解Redis。

Redis的实战知识点可以简单分为
三个层次

  • 底层实现
    :主要是从Redis的源码中提炼的问题,包括但不限于底层数据结构、服务模型、算法设计等。

  • 基础架构
    :可用概况为Redis整体对外的功能点和表现,包括但不限于单机版主从架构实现、主从数据同步、哨兵机制、集群实现、分布式一致性、故障迁移等。

  • 实际应用
    :实战中Redis可用帮你做什么,包括但不限于单机缓存、分布式缓存、分布式锁、一些应用。


深入理解和熟练使用Redis需要时间锤炼,要做到信手拈来着实不易,想在短时间内突破只能从热点题目入手,虽然这样感觉有些功利,不过也算无可厚非吧,
为了吃饭我们还是倾向于原谅懒惰的自己,要不然吃土喝风?

4.底层实现热点题目

底层实现篇的题目主要是与Redis的源码和设计相关,可以说是Redis功能的基石,了解底层实现可以让我们更好地掌握功能,由于底层代码很多,在后续的基础架构篇中仍然会穿插源码来分析,因此本篇只列举一些热点的问题。

Q1:
 Redis常用五种数据类型是如何实现的?

Redis支持的常用5种数据类型指的是value类型,分别为:
字符串String、列表List、哈希Hash、集合Set、有序集合Zset,但是Redis后续又丰富了几种数据类型分别是Bitmaps、
HyperLogLogs、GEO。

由于Redis是基于标准C写的,只有最基础的数据类型,因此Redis为了满足对外使用的5种数据类型,开发了属于自己
独有的一套基础数据结构,使用这些数据结构来实现5种数据类型。

Redis底层的数据结构包括:
简单动态数组SDS、链表、字典、跳跃链表、整数集合、压缩列表、对象。

Redis为了
平衡空间和时间效率
,针对value的具体类型在底层
会采用不同的数据结构来实现
,其中哈希表和压缩列表是复用比较多的数据结构,如下图展示了对外数据类型和底层数据结构之间的映射关系:


从图中可以看到ziplist压缩列表可以作为Zset、Set、List三种数据类型的底层实现,看来很强大,压缩列表是一种为了
节约内存而开发的且经过特殊编码之后的连续内存块顺序型数据结构
,底层结构还是比较复杂的。

Q2:
Redis的SDS和C中字符串相比有什么优势?

在C语言中使用N+1长度的字符数组来表示字符串,尾部使用’\0’作为结尾标志,对于此种实现
无法满足Redis对于安全性、效率、丰富的功能的要求,因此Redis单独封装了SDS简单动态字符串结构。

在理解SDS的优势之前需要先看下SDS的
实现细节,找了github
最新的src/sds.h的定义看下:

`typedef char *sds;`

`/*这个用不到 忽略即可*/
struct __attribute__ ((__packed__)) sdshdr5 {
    unsigned char flags; /* 3 lsb of type, and 5 msb of string length */
    char buf[];
`

`};`

`/*不同长度的header 8 16 32 64共4种 都给出了四个成员
len:当前使用的空间大小;alloc去掉header和结尾空字符的最大空间大小
flags:8位的标记 下面关于SDS_TYPE_x的宏定义只有5种 3bit足够了 5bit没有用
buf:这个跟C语言中的字符数组是一样的,从typedef char* sds可以知道就是这样的。
buf的最大长度是2^n 其中n为sdshdr的类型,如当选择sdshdr16,buf_max=2^16。
*/
struct __attribute__ ((__packed__)) sdshdr8 {
    uint8_t len; /* used */
    uint8_t alloc; /* excluding the header and null terminator */
    unsigned char flags; /* 3 lsb of type, 5 unused bits */
    char buf[];
};
struct __attribute__ ((__packed__)) sdshdr16 {
    uint16_t len; /* used */
    uint16_t alloc; /* excluding the header and null terminator */
    unsigned char flags; /* 3 lsb of type, 5 unused bits */
    char buf[];
};
struct __attribute__ ((__packed__)) sdshdr32 {
    uint32_t len; /* used */
    uint32_t alloc; /* excluding the header and null terminator */
    unsigned char flags; /* 3 lsb of type, 5 unused bits */
    char buf[];
};
struct __attribute__ ((__packed__)) sdshdr64 {
    uint64_t len; /* used */
    uint64_t alloc; /* excluding the header and null terminator */
    unsigned char flags; /* 3 lsb of type, 5 unused bits */
    char buf[];
};

#define SDS_TYPE_5  0
#define SDS_TYPE_8  1
#define SDS_TYPE_16 2
#define SDS_TYPE_32 3
#define SDS_TYPE_64 4
#define SDS_TYPE_MASK 7
#define SDS_TYPE_BITS 3
`

看了前面的定义,笔者画了个图:

从图中可以知道sds本质分为三部分:header、buf、null结尾符,其中header可以认为是整个sds的指引部分,给定了使用的空间大小、最大分配大小等信息,再用一张网上的图来清晰看下
sdshdr8的实例


在sds.h/sds.c源码中可清楚地看到sds完整的实现细节,本文就不展开了要不然篇幅就过长了,快速进入主题说下
sds的优势

  • O(1)获取长度
    : C字符串需要遍历而sds中有len可以直接获得;

  • 防止缓冲区溢出bufferoverflow
    : 当sds需要对字符串进行修改时,首先借助于len和alloc检查空间是否满足修改所需的要求,如果空间不够的话,SDS会
    自动扩展空间
    ,避免了像C字符串操作中的覆盖情况;

  • 有效降低内存分配次数
    :C字符串在涉及增加或者清除操作时会改变底层数组的大小造成重新分配、sds使用了
    空间预分配和惰性空间释放
    机制,说白了就是每次在扩展时是成倍的多分配的,在缩容是也是先留着并不正式归还给OS,这两个机制也是比较好理解的;

  • 二进制安全
    :C语言字符串只能保存ascii码,对于图片、音频等信息无法保存,sds是
    二进制安全
    的,写入什么读取就是什么,不做任何过滤和限制;

老规矩上一张黄健宏大神总结好的图:

Q3:Redis的字典是如何实现的?****简述渐进式rehash的过程。

字典算是Redis5中常用数据类型中的明星成员了,前面说过字典可以基于ziplist和hashtable来实现,我们只讨论
基于hashtable实现的原理。

字典是个
层次非常明显的数据类型,如图:

有了个大概的概念,我们看下最新的src/dict.h
源码定义

`//哈希节点结构
typedef struct dictEntry {
    void *key;
    union {
        void *val;
        uint64_t u64;
        int64_t s64;
        double d;
    } v;
    struct dictEntry *next;
} dictEntry;

//封装的是字典的操作函数指针
typedef struct dictType {
    uint64_t (*hashFunction)(const void *key);
    void *(*keyDup)(void *privdata, const void *key);
    void *(*valDup)(void *privdata, const void *obj);
    int (*keyCompare)(void *privdata, const void *key1, const void *key2);
    void (*keyDestructor)(void *privdata, void *key);
    void (*valDestructor)(void *privdata, void *obj);
} dictType;

/* This is our hash table structure. Every dictionary has two of this as we
 * implement incremental rehashing, for the old to the new table. */
//哈希表结构 该部分是理解字典的关键
typedef struct dictht {
    dictEntry **table;
    unsigned long size;
    unsigned long sizemask;
    unsigned long used;
} dictht;

//字典结构
typedef struct dict {
    dictType *type;
    void *privdata;
    dictht ht[2];
    long rehashidx; /* rehashing not in progress if rehashidx == -1 */
    unsigned long iterators; /* number of iterators currently running */
} dict;
`

C语言的好处在于定义必须是由最底层向外的,因此我们可以看到一个明显的层次变化,于是笔者又画一图来展现具体的
层次概念:


  • 关于dictEntry

dictEntry是哈希表节点,也就是我们存储数据地方,其保护的成员有:key,v,next指针。key保存着键值对中的键,v保存着键值对中的值,值可以是一个指针或者是uint64_t或者是int64_t。next是指向另一个哈希表节点的指针,这个指针可以将多个哈希值相同的键值对连接在一次,以此来
解决哈希冲突
的问题。

如图为两个冲突的哈希节点的连接关系:

  • 关于dictht

从源码看哈希表包括的成员有table、size、used、sizemask。table是一个数组,数组中的每个元素都是一个指向dictEntry结构的指针, 每个dictEntry结构保存着一个键值对;size 属性记录了哈希表table的大小,而used属性则记录了哈希表目前已有节点的数量。sizemask等于size-1和哈希值计算一个键在table数组的索引,也就是计算index时用到的。

如上图展示了一个大小为4的table中的哈希节点情况,其中k1和k0在index=2发生了哈希冲突,进行开链表存在,本质上是先存储的k0,
k1放置是发生冲突为了保证效率直接放在冲突链表的最前面,因为该链表没有尾指针

  • 关于dict

从源码中看到dict结构体就是字典的定义,包含的成员有type,privdata、ht、rehashidx。其中dictType指针类型的type指向了操作字典的api,理解为函数指针即可,
ht是包含2个dictht的数组
,也就是字典包含了2个哈希表,rehashidx进行rehash时使用的变量,privdata配合dictType指向的函数作为参数使用,这样就对字典的几个成员有了初步的认识。

  • 字典的哈希算法
`//伪码:使用哈希函数,计算键key的哈希值
hash = dict->type->hashFunction(key);
//伪码:使用哈希表的sizemask和哈希值,计算出在ht[0]或许ht[1]的索引值
index = hash & dict->ht[x].sizemask;
//源码定义
#define dictHashKey(d, key) (d)->type->hashFunction(key)
`

redis使用MurmurHash算法计算哈希值,该算法最初由Austin Appleby在2008年发明,
MurmurHash算法的无论数据输入情况如何都可以给出随机分布性较好的哈希值并且计算速度非常快,目前有
MurmurHash2和
MurmurHash3等版本。

  • 普通Rehash重新散列

哈希表保存的键值对数量是
动态变化的,为了让哈希表的负载因子维持在一个合理的范围之内,就需要对哈希表进行扩缩容。

扩缩容是通过执行rehash重新散列来完成,对字典的哈希表
执行普通rehash的基本步骤为分配空间->逐个迁移->交换哈希表,详细过程如下

  1. 为字典的ht[1]哈希表分配空间,分配的空间大小取决于要执行的操作以及ht[0]当前包含的键值对数量:
    扩展操作时ht[1]的大小为第一个大于等于ht[0].used*2的2^n;
    收缩操作时ht[1]的大小为第一个大于等于ht[0].used的2^n ;

    扩展时比如h[0].used=200,那么需要选择大于400的第一个2的幂,也就是2^9=512。

  2. 将保存在ht[0]中的所有键值对重新计算键的哈希值和索引值rehash到ht[1]上;

  3. 重复rehash直到ht[0]包含的所有键值对全部迁移到了ht[1]之后释放 ht[0], 将ht[1]设置为 ht[0],并在ht[1]新创建一个空白哈希表, 为下一次rehash做准备。

  • 渐进Rehash过程

Redis的rehash动作
并不是一次性完成的,而是分多次、渐进式地完成的,原因在于当哈希表里保存的键值对数量很大时, 一次性将这些键值对全部rehash到ht[1]可能会
导致服务器在一段时间内停止服务,这个是无法接受的。

针对这种情况Redis采用了
渐进式rehash,过程的详细步骤:

  1. 为ht[1]分配空间,这个过程和普通Rehash没有区别;

  2. 将rehashidx设置为0,表示rehash工作正式开始,同时这个rehashidx是递增的,从0开始表示从数组第一个元素开始rehash。

  3. 在rehash进行期间,每次对字典执行增删改查操作时,
    顺带
    将ht[0]哈希表在rehashidx索引上的键值对rehash到 ht[1],完成后将rehashidx加1,指向下一个需要rehash的键值对。

  4. 随着字典操作的不断执行,最终ht[0]的所有键值对都会被rehash至ht[1],再将rehashidx属性的值设为-1来表示 rehash操作已完成。

渐进式 rehash的思想在于
将rehash键值对所需的计算工作分散到对字典的每个添加、删除、查找和更新操作上,从而避免了集中式rehash而带来的阻塞问题

看到这里不禁去想这种
捎带脚式的rehash
会不会导致整个过程非常漫长?如果某个value一直没有操作那么需要扩容时由于一直不用所以影响不大,需要缩容时如果一直不处理可能造成内存浪费,具体的还没来得及研究,
先埋个问题吧

Q4:跳跃链表了解吗?Redis的Zset如何使用跳表实现的?

ZSet这种数据类型也非常有用,在做排行榜需求时非常有用,笔者就曾经使用这种数据类型来实现某日活2000w的app的排行榜,所以了解下ZSet的底层实现很有必要,之前笔者写过两篇文章介绍跳跃链表和ZSet的实现,因此查阅即可。

Q5:Redis为什么使用单线程?
讲讲Redis网络模型以及单线程如何协调各种事件运行起来的?

Redis在新版本中并不是单纯的单线程服务,一些辅助工作会有BIO后台线程来完成,并且Redis底层使用epoll来实现了基于事件驱动的反应堆模式,在整个主线程运行工程中不断协调时间事件和文件事件来完成整个系统的运行,笔者之前写过两篇相关的文章,查阅即可得到更深层次的答案。

发布了23 篇原创文章 · 获赞 139 · 访问量 1万+

Guess you like

Origin blog.csdn.net/javajiagou/article/details/103856479