Redis原理篇
1、原理篇-Redis六 种数据结构和五种数据类型
笔记原件来自黑马B站视频配套笔记,经过自己加工修改添加等
1.1 Redis数据结构-动态字符串SDS
我们都知道Redis中保存的Key是字符串,value往往是字符串或者字符串的集合。可见字符串是Redis中最常用的一种数据结构。
不过Redis没有直接使用C语言中的字符串,因为C语言字符串存在很多问题:
- 获取字符串长度的需要通过运算
- 非二进制安全(不能存在特殊字符,例如C语言的字符串结尾字符'\0')
- 不可修改
Redis构建了一种新的字符串结构,称为简单动态字符串(Simple Dynamic String),简称SDS。 例如,我们执行命令:
那么Redis将在底层创建两个SDS,其中一个是包含“name”的SDS,另一个是包含“虎哥”的SDS。
Redis是C语言实现的,其中SDS是一个结构体,SDS声明了很多对应长度的结构体
例如SDS 8位长度的结构体 sdshdr8 源码如下:

sdshdr8代表该字符串的长度len最多由8位二进制位表示,也就是最长是2^8^-1 = 255 但是为了兼容C语言,最后也要包含一个'\0',所以最长是254个字符,但是Redis读取时不会跟C语言一样将它作为结束标识来读,而是读取长度len个,是二进制安全的
然后还有sdshdr16、sdshdr32、sdshdr64 等类型的SDS结构体,其最大长度各不相同 还有sdshdr5,但是因为太小,已经弃用
上图右边的数字代表结构体中不同sds对应的flag的值
例如,一个包含字符串“name”的sds结构如下:
SDS之所以叫做动态字符串,是因为它具备动态扩容的能力,例如一个内容为“hi”的SDS:

假如我们要给SDS追加一段字符串“,Amy”,这里首先会申请新内存空间:
-
如果新字符串小于1M,则新空间为扩展后字符串长度的两倍+1;
-
如果新字符串大于1M,则新空间为扩展后字符串长度+1M+1;
这种多扩展一些新空间的方式称为内存预分配。

alloc = (2+4)*2 = 12 因为alloc不包含结束标识,但是后面的格子是12+1=13个
**内存预分配:**重新分配内存很消耗资源,预分配后若下次还需扩容,若空间足够就不用再分配了,减少内存分配次数

1.2 Redis数据结构-整数集合intset
IntSet是Redis中set集合的一种实现方式,基于整数数组来实现,并且具备长度可变、有序等特征。 结构如下:

这里的contents整数数组的类型 int8_t 不是只能存储 -128~127 的整数,而是由其encoding决定的; 其中的encoding包含三种模式,表示存储的整数大小不同:

为了方便查找,Redis会将intset中所有的整数按照升序依次保存在contents数组中,结构如图:

现在,数组中每个数字都在int16_t的范围内,因此采用的编码方式是INTSET_ENC_INT16,每部分占用的字节大小为: encoding:4字节 length:4字节 contents:2字节 * 3 = 6字节(每个整数的大小取决于encoding)
constants数组是使用指针来指向内存中的地址,地址 = startPtr + (sizeof(int16)*index) 所以为了性能考虑,很多数组的脚标都从0开始
intset升级编码:
现在,假设有一个intset,元素为{5,10,20},采用的编码是INTSET_ENC INT16,则每个整数占2字节:

我们向该其中添加一个数字:50000,这个数字超出了int16_t的范围,intset会自动升级编码方式到合适的大小。 以当前案例来说流程如下:
- 升级编码为INTSET_ENC_INT32, 每个整数占4字节,并 按照新的编码方式及元素个数扩容数组
- 倒序依次将数组中的元素拷贝到扩容后的正确位置
- 将待添加的元素放入数组末尾
- 最后,将inset的encoding属性改为INTSET_ENC_INT32,将length属性改为4


升级源码如下:



小总结:
Intset可以看做是特殊的整数数组,具备一些特点:
- Redis会确保Intset中的元素唯一、有序
- 具备类型升级机制,可以节省内存空间
- 底层采用二分查找方式来查询
1.3 Redis数据结构-哈希表Dict
我们知道Redis是一个键值型(Key-Value Pair)的数据库,我们可以根据键实现快速的增删改查。而键与值的映射关系正是通过Dict来实现的。
Dict由三部分组成 ,分别是:哈希表(DictHashTable)、哈希节点(DictEntry)、字典(Dict)

entry的个数used是可以大于哈希表的大小size的,因为跟Java中一样,哈希冲突时,会使用一个链表来存储hash值相同的元素
当我们向Dict添加键值对时,Redis首先根据key计算出hash值(h),然后利用 h & sizemask来计算元素应该存储到数组中的哪个索引位置。我们存储k1=v1,假设k1的哈希值h =1,则1&3 =1,因此k1=v1要存储到数组角标1位置。
为什么使用 h & sizemask 与运算,而不使用求余运算?
哈希表的大小size初始大小为4,且必须是2^n^,所以sizemask = size - 1 在这种情况下,h & sizemask = h % size,并且位运算的速度通常比取模操作更快

Dict由三部分组成,分别是:哈希表(DictHashTable)、哈希节点(DictEntry)、字典(Dict)
字典 > 哈希表 > 哈希节点


Dict的扩容
Dict中的HashTable就是数组结合单向链表的实现,当集 合中元素较多时,必然导致哈希冲突增多,链表过长,则查询效率会大大降低。 Dict在每次新增键值对时都会检查负载因子(LoadFactor = used/size) ,满足以下两种情况时会触发哈希表扩容:
- 哈希表的 LoadFactor >= 1,并且服务器没有执行 BGSAVE 或者 BGREWRITEAOF 等后台进程;
- 哈希表的 LoadFactor > 5 ;

Dict的收缩
Dict除了扩容以外,每次删除元素时,也会对负载因子做检查,当LoadFactor<0.1时,会做哈希表收缩:

Dict的rehash
不管是扩容还是收缩,必定会调用dictExpand(与下面rehash步骤中前3步相同)方法,其中会创建新的哈希表,导致哈希表的size和sizemask变化,而key的查询与sizemask有关。因此必须对哈希表中的每一个key重新计算索引,插入新的哈希表,这个过程称为rehash。过程是这样的:
-
计算新hash表的realeSize,值取决于当前要做的是扩容还是收缩:
-
如果是扩容,则新size为第一个大于等于dict.ht[0].used + 1的2^n^
-
如果是收缩,则新size为第一个大于等于dict.ht[0].used的2^n^ (不得小于4)
-
-
按照新的realeSize申请内存空间,创建dictht,并赋值给dict.ht[1]
-
设置dict.rehashidx = 0,标 示开始rehash
-
将dict.ht[0]中的每一个dictEntry都rehash到dict.ht[1](非渐进式哈希) 每次执行新增、查询、修改、删除操作时,都检查一下dict.rehashidx是否大于-1,如果是则将dict.ht[0].table[rehashidx]的entry链表rehash到dict.ht[1],并且将rehashidx++。直至dict.ht[0]的所有数据都rehash到dict.ht[1]。(每次只rehash一个entry到ht[1]) -
将dict.ht[1]赋值给dict.ht[0],给dict.ht[1]初始化为空哈希表,释放原来的dict.ht[0]的内存
-
将rehashidx赋值为**-1**,代表rehash结束
-
在rehash过程中,新增操作,则直接写入ht[1],查询、修改和删除则会在dict.ht[0]和dict.ht[1]依次查找并执行。这样可以确保ht[0]的数据只减不增,随着rehash最终为空
(非渐进式哈希)整个过程的动画描述可以参考 《Redis原理篇.pptx》 的27~28页,进行动态ppt演示 资源链接:https://github.com/spongehah/redis/blob/main/04-%E5%8E%9F%E7%90%86%E7%AF%87/%E8%AE%B2%E4%B9%89/Redis%E5%8E%9F%E7%90%86%E7%AF%87.pptx
Dict的rehash并不是一次性完成的。试想一下,如果Dict中包含数百万的entry,要在一次rehash完成,极有可能导致主线程阻塞。因此Dict的rehash:是分多次、渐进式的完成,因此称为渐进式rehash。流程如上列第4 6 7步
注:第三步只会在还未开始rehash时才会设置为0代表开始rehash,因为用过源码我们可以看到,当正在rehash时我们是不会扩容与缩容的
小总结:
Dict的结构:
- 类似java的HashTable,底层是数组加链表 来解决哈希冲突
- Dict包含两个哈希表,ht[0]平常用,ht[1]用来rehash
Dict的伸缩:
- 当LoadFactor大于5或者LoadFactor大于1并且没有子进程任务时,Dict扩容
- 当LoadFactor小于0.1时,Dict收缩
- 扩容大小为第一个大于等于used + 1的2^n^
- 收缩大小为第一个大于等于used 的2^n^(不得小于4)
- Dict采用渐进式rehash,每次访问Dict时执行一次rehash
- rehash时ht[0]只减不增,新增操作只在ht[1]执行,其它操作在两个哈希表
Dict的缺点:
- Dict内部大量使用指针,内存空间不连续,通过指针链接,且容易产生内存碎片,造成严重的内存浪费
- 指针也会占据存储空间,大量指针占据很多内存
1.4 Redis数据结构-压缩列表ZipList
为节省内存,改善Dict哈希表的问题,出现了ZipList
ZipList 是一种特殊的“双端链表” ,由一系列特殊编码的连续内存块组成。可以在任意一端进行压入/弹出操作, 并且该操作的时间复杂度为 O(1)。
不是双端链表,但有双端链表的特点,且内存块是连续的,不需要通过指针寻址

| 属性 | 类型 | 长度 | 用途 |
|---|---|---|---|
| zlbytes | uint32_t | 4 字节 | 记录整个压缩列表占用的内存字节数 |
| zltail | uint32_t | 4 字节 | 记录压缩列表表尾节点距离压缩列表的起始地址有多少字节,通过这个偏移量,可以确定表尾节点的地址。 |
| zllen | uint16_t | 2 字节 | 记录了压缩列表包含的节点数量。 最大值为UINT16_MAX (65534),如果超过这个值,此处会记录为65535,但节点的真实数量需要遍历整个压缩列表才能计算得出。 |
| entry | 列表节点 | 不定 | 压缩列表包含的各个节点,节点的长度由节点保存的内容决定。 |
| zlend | uint8_t | 1 字节 | 特殊值 0xFF (十进制 255 ),用于标记压缩列表的末端。 |
ZipListEntry
ZipList 中的Entry并不像普通链表那样记录前后节点的指针,因为记录两个指针要占用16个字节,浪费内存。而是采用了下面的结构:
- previous_entry_length:前一节点的长度,占1个或5个字节。
- 如果前一节点的长度小于254字节,则采用1个字节来保存这个长度值
- 如果前一节点的长度大于254字节,则采用5个字节来保存这个长度值,第一个字节为0xfe,后四个字节才是真实长度数据
- encoding:编码属性,记录content的数据类型(字符串还是整数)以及长度,占用1个、2个或5个字节
- contents:负责保存节点的数据,可以是字符串或整数
所以entry三个部分的长度都可以知晓,顺序遍历时只需要加上entry的长度,倒序遍历时只需要减去pre_len
ZipList中所有存储长度的数值均采用小端字节序,即低位字节在前,高位字节在后。例如:数值0x1234,采用小端字节序后实际存储值为:0x3412
Encoding编码
ZipListEntry中的encoding编码分为字符串和整数两种: ①字符串:如果encoding是以“00”、**“01”或者“10”**开头,则证明content是字符串
| 编码 | 编码长度 | 字符串大小 |
|---|---|---|
| |00pppppp| | 1 bytes | <= 63 bytes(2^6^) |
| |01pppppp|qqqqqqqq| | 2 bytes | <= 16383 bytes(2^14^) |
| |10000000|qqqqqqqq|rrrrrrrr|ssssssss|tttttttt| | 5 bytes | <= 4294967295 bytes(2^32^) |
例如,我们要保存字符串:“ab”和 “bc”

zlbytes、zltail、zllen等标表示长度的属性使用小端字节序
ZipListEntry中的encoding编码分为字符串和整数两种: ②整数:如果encoding是以“11”开始,则证明content是整数,且encoding固定只占用1个字节
| 编码 | 编码长度 | 整数类型 |
|---|---|---|
| 11000000 | 1 | int16_t(2 bytes) |
| 11010000 | 1 | int32_t(4 bytes) |
| 11100000 | 1 | int64_t(8 bytes) |
| 11110000 | 1 | 24位有符整数(3 bytes) |
| 11111110 | 1 | 8位有符整数(1 bytes) |
| 1111xxxx | 1 | 直接在xxxx位置保存数值,范围从0001 ~ 1101(十进制1 ~ 13),减1后结果为实际值(0 ~ 12) |
例如:一个ZipList中包含两个整数值: “2” 和 “5”

1.5 Redis数据结构-ZipList的连锁更新问题
ZipList的每个Entry都包含previous_entry_length来记录上一个节点的大小,长度是1个或5个字节: 如果前一节点的长度小于254字节,则采用1个字节来保存这个长度值 如果前一节点的长度大于等于254字节,则采用5个字节来保存这个长度值,第一个字节为0xfe,后四个字节才是真实长度数据 现在,假设我们有N个连续的、长度为250~253字节之间的entry(前提),因此entry的previous_entry_length属性用1个字节即可表示,可是当突然在前面插入一个长度大于254字节的entry,就会发生连锁更新问题,如图所示:

ZipList这种特殊情况下产生的连续多次空间扩展操作称之为连锁更新(Cascade Update)。新增、删除都可能导致连锁更新的发生。
概率很低,因为需要N个连续的、长度为250~253字节之间的entry,条件较为苛刻
小总结:
ZipList特性:
- 压缩列表的可以看做一种连续内存空间的"双向链表"
- 列表的节点之间不是通过指针连接,而是记录上一节点和本节点长度来寻址,内存占用较低
- 如果列表数据过多,导致链表过长,可能影响查询性能
- 增或删较大数据时有可能发生连续更新问题
1.6 Redis数据结构-快速列表QuickList
问题1:ZipList虽然节省内存,但申请内存必须是连续空间,如果内存占用较多,申请内存效率很低。怎么办?
答:为了缓解这个问题,我们必须限制ZipList的长度和entry大小。
问题2:但是我们要存储大量数据,超出了ZipList最佳的上限该怎么办?
答:我们可以创建多个ZipList来分片存储数据。
问题3:数据拆分后比较分散,不方便管理和查找,这多个ZipList如何建立联系?
答:Redis在3.2版本引入了新的数据结构QuickList,它是一个双端链表,只不过链表中的每个节点都是一个ZipList。

为了避免QuickList中的每个ZipList中entry过多,Redis提供了一个配置项:list-max-ziplist-size来限制。
如果值为正,则代表ZipList的允许的entry个数的最大值 如果值为负,则代表ZipList的最大内存大小,分5种情况:
- -1:每个ZipList的内存占用不能超过4kb
- -2:每个ZipList的内存占用不能超过8kb
- -3:每个ZipList的内存占用不能超过16kb
- -4:每个ZipList的内存占用不能超过32kb
- -5:每个ZipList的内存占用不能超过64kb
这里的单位是 KB 更为合理,使用kb很容易让人产生误解,但是Redis配置文件中声明了1kb = 1024bytes
# Note on units: when memory size is needed, it is possible to specify
# it in the usual form of 1k 5GB 4M and so forth:
#
# 1k => 1000 bytes
# 1kb => 1024 bytes
# 1m => 1000000 bytes
# 1mb => 1024*1024 bytes
# 1g => 1000000000 bytes
# 1gb => 1024*1024*1024 bytes
#
# units are case insensitive so 1GB 1Gb 1gB are all the same.
其默认值为 -2:

除了控制ZipList的大小,QuickList还可以对节点的ZipListf做压缩。通过配置项list-compress-depth来控制。因为链表一般都是从首尾访问较多,中间节点的访问次数较少,所以首尾是不压缩的。这个参数是控制首尾不压缩的节点个数:
- 0:特殊值,代表不压缩
- 1:标示QuickList的首尾各有1个节点不压缩,中间节点压缩
- 2:标示QuickList的首尾各有2个节点不压缩,中间节点压缩
- 以此类推
其默认值为:0:

以下是QuickList的和QuickListNode的结构源码:

我们接下来用一段流程图来描述当前的这个结构

总结:
QuickList的特点:
- 是一个节点为ZipList的双端链表
- 节点采用ZipList,解决了传统链表的内存占用问题
- 控制了ZipList大小,解决连续内存空间申请效率问题(兼具链表和ZipList的优点)
- 中间节点可以压缩,进一步节省了内存
1.7 Redis数据结构-跳表SkipList
SkipList(跳表)首先是链表,但与传统链表相比有几点差异:
- 元素按照升序排列存储
- 节点可能包含多个指针,指针跨度不同。

SkipList(跳表)首先是链表,但与传统链表相比有几点差异:
- 元素按照升序排列存储
- 节点可能包含多个指针,指针跨度不同,最高跨度可高达32层,由底层函数进行具体推算适合多少层跨度的指针。

SkipList(跳表)首先是链表,但与传统链表相比有几点差异:
- 元素按照升序排列存储
- 节点可能包含多个指针,指针跨度不同。

跳表的时间复杂度是log2N:
如果链表里有N个结点,会有多少级索引呢?
按照我们前面讲的,两两取首。每两个结点会抽出一个结点作为上一级索引的结点,以此估算:
- 第一级索引的结点个数大约就是n/2,
- 第二级索引的结点个数大约就是n/4,
- 第三级索引的结点个数大约就是n/8,依次类推......
也就是说,第k级索引的结点个数是第k-1级索引的结点个数的1/2,那第k级索引结点的个数就是n/(2^k^)
最高级索引有2个,所以 n/(2^k^) = 2 --> k = log2n - 1 ,算上原始链表,就是log2n
跳表的空间复杂度是O(N):
比起单纯的单链表,跳表需要存储多级索引,肯定要消耗更多的存储空间。那到底需要消耗多少额外的存储空间呢?
我们来分析一下跳表的空间复杂度。
- 第一步:首先原始链表长度为n,
- 第二步:两两取首,每层索引的结点数:n/2, n/4, n/8 ... , 8, 4, 2 每上升一级就减少一半,直到剩下2个结点,以此类推;如果我们把每层索引的结点数写出来,就是一个等比数列。
这几级索引的结点总和就是n/2+n/4+n/8…+8+4+2=n-2。所以,跳表的空间复杂度是O(n) 。也就是说,如果将包含n个结点的单链表构造成跳表,我们需要额外再用接近n个结点的存储空间。
- 第三步:思考三三取首,每层索引的结点数:n/3, n/9, n/27 ... , 9, 3, 1 以此类推;
第一级索引需要大约n/3个结点,第二级索引需要大约n/9个结点。每往上一级,索引结点个 数都除以3。为了方便计算,我们假设最高一级的索引结点个数是1。我们把每级索引的结点个数都写下来,也是一个等比数列 n/3+n/9+n/27+...+9+3+1=n/2。尽管空间复杂度还是O(n) ,但比上面的每两个结点抽一个结点的索引构建方法,要减少了一半的索引结点存储空间。所以空间复杂度是O(n);
跳表的优缺点:
- 优点:跳表是一个最典型的空间换时间解决方案,而且只有在数据量较大的情况下才能体现出来优势。而且应该是读多写少的情况下才能使用,所以它的适用范围应该还是比较有限的
- 缺点:维护成本相对要高,
在单链表中,一旦定位好要插入的位置,插入结点的时间复杂度是很低的,就是O(1)
在跳表中,新增或者删除时需要把所有索引都更新一遍,为了保证原始链表中数据的有序性,我们需要先找到要动的位置,这个查找操作就会比较耗时最后在新增和删除的过程中的更新,时间复杂度也是O(log
2N)
小总结:
SkipList的特点:
- 跳跃表是一个双向链表,每个节点都包含score和ele值
- 节点按照score值排序,score值一样则按照ele字典排序
- 每个节点都可以包含多层指针,层数是1到32之间的随机数
- 不同层指针到下一个节点的跨度不同,层级越高,跨度越大
- 增删改查效率与红黑树基本一致,实现却更简单