我们都知道Redis中保存的Key是字符串,value往往是字符串或者字符串的集合。可见字符串是Redis中最常用的一种数据结构。
不过Redis没有直接使用C语言中的字符串,因为C语言字符串存在很多问题:
1.获取字符串长度的需要通过运算
2.非二进制安全
3.不可修改
Redis构建了一种新的字符串结构,称为简单动态字符串(Simple Dynamic String),简称SDS。
例如,我们执行命令:
那么Redis将在底层创建两个SDS,其中一个是包含“name”的SDS,另一个是包含“虎哥”的SDS。
Redis是C语言实现的,其中SDS是一个结构体,源码如下:
例如,一个包含字符串“name”的sds结构如下:
SDS之所以叫做动态字符串,是因为它具备动态扩容的能力,例如一个内容为“hi”的SDS:
假如我们要给SDS追加一段字符串“,Amy”,这里首先会申请新内存空间:
IntSet是Redis中set集合的一种实现方式,基于整数数组来实现,并且具备长度可变、有序等特征。
结构如下:
其中的encoding包含三种模式,表示存储的整数大小不同:
为了方便查找,Redis会将intset中所有的整数按照升序依次保存在contents数组中,结构如图:
现在,数组中每个数字都在int16_t的范围内,因此采用的编码方式是INTSET_ENC_INT16,每部分占用的字节大小为:
IntSet升级
现在,假设有一个intset,元素为{5,10,20},采用的编码是INTSET_ENC_INT16,则每个整数占2字节:
我们向该其中添加一个数字:50000,这个数字超出了int16_t的范围,intset会自动升级编码方式到合适的大小。
以当前案例来说流程如下:
1.升级编码为INTSET_ENC_INT32, 每个整数占4字节,并按照新的编码方式及元素个数扩容数组 2.倒序依次将数组中的元素拷贝到扩容后的正确位置
3.将待添加的元素放入数组末尾
4.最后,将inset的encoding属性改为INTSET_ENC_INT32,将length属性改为4
IntSet新增流程
源码如下:
总结:
Intset可以看做是特殊的整数数组,具备一些特点:
1.Redis会确保Intset中的元素唯一、有序
2.具备类型升级机制,可以节省内存空间
3.底层采用二分查找方式来查询
我们知道Redis是一个键值型(Key-Value Pair)的数据库,我们可以根据键实现快速的增删改查。而键与值的映射关系正是通过Dict来实现的。
Dict由三部分组成,分别是:哈希表(DictHashTable)、哈希节点(DictEntry)、字典(Dict)
当我们向Dict添加键值对时,Redis首先根据key计算出hash值(h),然后利用 h & sizemask来计算元素应该存储到数组中的哪个索引位置我们存储k1=v1,假设k1的哈希值h =1,则1&3 =1,因此k1=v1要存储到数组角标1位置。
Dict由三部分组成,分别是:哈希表(DictHashTable)、哈希节点(DictEntry)、字典(Dict)
Dict
Dict的扩容
Dict中的HashTable就是数组结合单向链表的实现,当集合中元素较多时,必然导致哈希冲突增多,链表过长,则查询效率会大大降低。
Dict在每次新增键值对时都会检查负载因子(LoadFactor = used/size) ,满足以下两种情况时会触发哈希表扩容:
1.哈希表的 LoadFactor >= 1,并且服务器没有执行 BGSAVE 或者 BGREWRITEAOF 等后台进程;
2.哈希表的 LoadFactor > 5 ;
Dict的收缩
Dict除了扩容以外,每次删除元素时,也会对负载因子做检查,当LoadFactor < 0.1 时,会做哈希表收缩:
Dict的rehash
不管是扩容还是收缩,必定会创建新的哈希表,导致哈希表的size和sizemask变化,而key的查询与sizemask有关。因此必须对哈希表中的每一个key重新计算索引,插入新的哈希表,这个过程称为rehash。过程是这样的:
1.计算新hash表的realeSize,值取决于当前要做的是扩容还是收缩:
2.按照新的realeSize申请内存空间,创建dictht,并赋值给dict.ht[1]
3.设置hashidx = 0,标示开始rehash
4.将dict.ht[0]中的每一个dictEntry都rehash到dict.ht[1]
5.将dict.ht[1]赋值给dict.ht[0],给dict.ht[1]初始化为空哈希表,释放原来的dict.ht[0]的内存
Dict的rehash并不是一次性完成的。试想一下,如果Dict中包含数百万的entry,要在一次rehash完成,极有可能导致主线程阻塞。因此Dict的rehash是分多次、渐进式的完成,因此称为渐进式rehash。流程如下:
1.计算新hash表的realeSize,值取决于当前要做的是扩容还是收缩:
2.按照新的realeSize申请内存空间,创建dictht,并赋值给dict.ht[1]
3.设置hashidx = 0,标示开始rehash
4.每次执行新增、查询、修改、删除操作时,都检查一下hashidx是否大于-1,如果是则将dict.ht[0].table[rehashidx]的entry链表rehash到dict.ht[1],并且将rehashidx++。直至dict.ht[0]的所有数据都rehash到dict.ht[1]
5.将dict.ht[1]赋值给dict.ht[0],给dict.ht[1]初始化为空哈希表,释放原来的dict.ht[0]的内存
6.将rehashidx赋值为-1,代表rehash结束
7.在rehash过程中,新增操作,则直接写入ht[1],查询、修改和删除则会在dict.ht[0]和dict.ht[1]依次查找并执行。这样可以确保ht[0]的数据只减不增,随着rehash最终为空
总结:
Dict的结构:
Dict的伸缩:
ZipList 是一种特殊的“双端链表” ,由一系列特殊编码的连续内存块组成。可以在任意一端进行压入/弹出操作, 并且该操作的时间复杂度为 O(1)。
ZipListEntry
ZipList 中的Entry并不像普通链表那样记录前后节点的指针,因为记录两个指针要占用16个字节,浪费内存。而是采用了下面的结构:
previous_entry_length:前一节点的长度,占1个或5个字节。
注意:ZipList中所有存储长度的数值均采用小端字节序,即低位字节在前,高位字节在后。例如:数值0x1234,采用小端字节序后实际存储值为:0x3412
Encoding编码
ZipListEntry中的encoding编码分为字符串和整数两种:
例如,我们要保存字符串:“ab”和 “bc”
例如,一个ZipList中包含两个整数值:“2”和“5”
ZipList的连锁更新问题
ZipList的每个Entry都包含previous_entry_length来记录上一个节点的大小,长度是1个或5个字节:
现在,假设我们有N个连续的、长度为250~253字节之间的entry,因此entry的previous_entry_length属性用1个字节即可表示,如图所示:
ZipList这种特殊情况下产生的连续多次空间扩展操作称之为连锁更新(Cascade Update)。新增、删除都可能导致连锁更新的发生。
总结:
ZipList特性:
1.压缩列表的可以看做一种连续内存空间的"双向链表"
2.列表的节点之间不是通过指针连接,而是记录上一节点和本节点长度来寻址,内存占用较低
3.如果列表数据过多,导致链表过长,可能影响查询性能
4.增或删较大数据时有可能发生连续更新问题
问题1:ZipList虽然节省内存,但申请内存必须是连续空间,如果内存占用较多,申请内存效率很低。怎么办?
为了缓解这个问题,我们必须限制ZipList的长度和entry大小。
问题2:但是我们要存储大量数据,超出了ZipList最佳的上限该怎么办?
我们可以创建多个ZipList来分片存储数据。
问题3:数据拆分后比较分散,不方便管理和查找,这多个ZipList如何建立联系?
Redis在3.2版本引入了新的数据结构QuickList,它是一个双端链表,只不过链表中的每个节点都是一个ZipList。
为了避免QuickList中的每个ZipList中entry过多,Redis提供了一个配置项:list-max-ziplist-size来限制。
-1:每个ZipList的内存占用不能超过4kb
-2:每个ZipList的内存占用不能超过8kb
-3:每个ZipList的内存占用不能超过16kb
-4:每个ZipList的内存占用不能超过32kb
-5:每个ZipList的内存占用不能超过64kb
其默认值为 -2:
除了控制ZipList的大小,QuickList还可以对节点的ZipList做压缩。通过配置项list-compress-depth来控制。因为链表一般都是从首尾访问较多,所以首尾是不压缩的。这个参数是控制首尾不压缩的节点个数:
0:特殊值,代表不压缩
1:标示QuickList的首尾各有1个节点不压缩,中间节点压缩
2:标示QuickList的首尾各有2个节点不压缩,中间节点压缩
以此类推
默认值:
以下是QuickList的和QuickListNode的结构源码:
总结:
QuickList的特点:
SkipList(跳表)首先是链表,但与传统链表相比有几点差异:
总结:
SkipList的特点:
Redis中的任意数据类型的键和值都会被封装为一个RedisObject,也叫做Redis对象,源码如下:
Redis的编码方式
Redis中会根据存储的数据类型不同,选择不同的编码方式,共包含11种不同类型:
Redis中会根据存储的数据类型不同,选择不同的编码方式。每种数据类型的使用的编码方式如下:
String
String是Redis中最常见的数据存储类型:
List
Redis的List类型可以从首、尾操作列表中的元素:
哪一个数据结构能满足上述特征?
Redis的List结构类似一个双端链表,可以从首、尾操作列表中的元素:
Set
Set是Redis中的单列集合,满足下列特点:
可以看出,Set对查询元素的效率要求非常高,思考一下,什么样的数据结构可以满足?
Set是Redis中的集合,不一定确保元素有序,可以满足元素唯一、查询效率要求极高。
ZSet
ZSet也就是SortedSet,其中每一个元素都需要指定一个score值和member值:
因此,zset底层数据结构必须满足键值存储、键必须唯一、可排序这几个需求。之前学习的哪种编码结构可以满足?
当元素数量不多时,HT和SkipList的优势不明显,而且更耗内存。因此zset还会采用ZipList结构来节省内存,不过需要同时满足两个条件:
1.元素数量小于zset_max_ziplist_entries,默认值128
2.每个元素都小于zset_max_ziplist_value字节,默认值64
z iplist本身没有排序功能,而且没有键值对的概念,因此需要有zset通过编码实现:
Hash
Hash结构与Redis中的Zset非常类似:
区别如下:
因此,Hash底层采用的编码与Zset也基本一致,只需要把排序有关的SkipList去掉即可:
当数据量较大时,Hash结构会转为HT编码,也就是Dict,触发条件有两个:
1.ZipList中的元素数量超过了hash-max-ziplist-entries(默认512)
2.ZipList中的任意entry大小超过了hash-max-ziplist-value(默认64字节)
服务器大多都采用Linux系统,这里我们以Linux为例来讲解:
任何Linux发行版,其系统内核都是Linux。我们的应用都需要通过Linux内核与硬件交互。
为了避免用户应用导致冲突甚至内核崩溃,用户应用与内核是分离的:
Linux系统为了提高IO效率,会在用户空间和内核空间都加入缓冲区:
在《UNIX网络编程》一书中,总结归纳了5种IO模型:
顾名思义,阻塞IO就是两个阶段都必须阻塞等待:
阶段一:
1.用户进程尝试读取数据(比如网卡数据)
2.此时数据尚未到达,内核需要等待数据
3.此时用户进程也处于阻塞状态
阶段二:
1.数据到达并拷贝到内核缓冲区,代表已就绪
2.将内核数据拷贝到用户缓冲区
3.拷贝过程中,用户进程依然阻塞等待
4.拷贝完成,用户进程解除阻塞,处理数据
可以看到,阻塞IO模型中,用户进程在两个阶段都是阻塞状态。
顾名思义,非阻塞IO的recvfrom操作会立即返回结果而不是阻塞用户进程。
阶段一:
1.用户进程尝试读取数据(比如网卡数据)
2.此时数据尚未到达,内核需要等待数据
3.返回异常给用户进程
4.用户进程拿到error后,再次尝试读取
5.循环往复,直到数据就绪
阶段二:
1.将内核数据拷贝到用户缓冲区
2.拷贝过程中,用户进程依然阻塞等待
3.拷贝完成,用户进程解除阻塞,处理数据
可以看到,非阻塞IO模型中,用户进程在第一个阶段是非阻塞,第二个阶段是阻塞状态。虽然是非阻塞,但性能并没有得到提高。而且忙等机制会导致CPU空转,CPU使用率暴增。
无论是阻塞IO还是非阻塞IO,用户应用在一阶段都需要调用recvfrom来获取数据,差别在于无数据时的处理方案:
而在单线程情况下,只能依次处理IO事件,如果正在处理的IO事件恰好未就绪(数据不可读或不可写),线程就会被阻塞,所有IO事件都必须等待,性能自然会很差。 就比如服务员给顾客点餐,分两步:
1.顾客思考要吃什么(等待数据就绪)
2.顾客想好了,开始点餐(读取数据) 要提高效率有几种办法?
方案一:增加更多服务员(多线程)
方案二:不排队,谁想好了吃什么(数据就绪了),服务员就给谁点餐(用户应用就去读取数据)
那么问题来了:用户进程如何知道内核中数据是否就绪呢?
文件描述符(File Descriptor):简称FD,是一个从0 开始的无符号整数,用来关联Linux中的一个文件。在Linux中,一切皆文件,例如常规文件、视频、硬件设备等,当然也包括网络套接字(Socket)。
IO多路复用:是利用单个线程来同时监听多个FD,并在某个FD可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源。
阶段一:
1.用户进程调用select,指定要监听的FD集合
2.内核监听FD对应的多个socket
3.任意一个或多个socket数据就绪则返回readable
4.此过程中用户进程阻塞
阶段二:
1.用户进程找到就绪的socket
2.依次调用recvfrom读取数据
3.内核将数据拷贝到用户空间
4.用户进程处理数据
IO多路复用是利用单个线程来同时监听多个FD,并在某个FD可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源。不过监听FD的方式、通知的方式又有多种实现,常见的有:
差异:
IO多路复用-select
select是Linux最早是由的I/O多路复用技术:
IO多路复用-poll
poll模式对select模式做了简单改进,但性能提升不明显,部分关键代码如下:
IO流程:
1.创建pollfd数组,向其中添加关注的fd信息,数组大小自定义
2.调用poll函数,将pollfd数组拷贝到内核空间,转链表存储,无上限
3.内核遍历fd,判断是否就绪
4.数据就绪或超时后,拷贝pollfd数组到用户空间,返回就绪fd数量n
5.用户进程判断n是否大于0
6.大于0则遍历pollfd数组,找到就绪的fd
与select对比:
IO多路复用-epoll
epoll模式是对select和poll的改进,它提供了三个函数:
总结:
select模式存在的三个问题:
poll模式的问题:
epoll模式中如何解决这些问题的?
IO多路复用-事件通知机制
当FD有数据可读时,我们调用epoll_wait(或者select、poll)可以得到通知。但是事件通知的模式有两种:
举个栗子:
1.假设一个客户端socket对应的FD已经注册到了epoll实例中
2.客户端socket发送了2kb的数据
3.服务端调用epoll_wait,得到通知说FD就绪
4.服务端从FD读取了1kb数据
5.回到步骤3(再次调用epoll_wait,形成循环)
结果:
结论:
select和poll仅支持LT模式,epoll可以自由选择LT和ET两种模式
IO多路复用-web服务流程
基于epoll模式的web服务的基本流程如图:
信号驱动IO是与内核建立SIGIO的信号关联并设置回调,当内核有FD就绪时,会发出SIGIO信号通知用户,期间用户应用可以执行其它业务,无需阻塞等待。
阶段一:
1.用户进程调用sigaction,注册信号处理函数
2.内核返回成功,开始监听FD
3.用户进程不阻塞等待,可以执行其它业务
4.当内核数据就绪后,回调用户进程的SIGIO处理函数
阶段二:
1.收到SIGIO回调信号
2.调用recvfrom,读取
3.内核将数据拷贝到用户空间
4.用户进程处理数据
当有大量IO操作时,信号较多,SIGIO处理函数不能及时处理可能导致信号队列溢出,而且内核空间与用户空间的频繁信号交互性能也较低。
异步IO的整个过程都是非阻塞的,用户进程调用完异步API后就可以去做其它事情,内核等待数据就绪并拷贝到用户空间后才会递交信号,通知用户进程。
阶段一:
1.用户进程调用aio_read,创建信号回调函数
2.内核等待数据就绪
3.用户进程无需阻塞,可以做任何事情
阶段二:
1.内核数据就绪
2.内核数据拷贝到用户缓冲区
3.拷贝完成,内核递交信号触发aio_read中的回调函数
4.用户进程处理数据
可以看到,异步IO模型中,用户进程在两个阶段都是非阻塞状态。
同步和异步
IO操作是同步还是异步,关键看数据在内核空间与用户空间的拷贝过程(数据读写的IO操作),也就是阶段二是同步还是异步:
Redis到底是单线程还是多线程?
在Redis版本迭代过程中,在两个重要的时间节点上引入了多线程的支持:
因此,对于Redis的核心网络模型,在Redis 6.0之前确实都是单线程。是利用epoll(Linux系统)这样的IO多路复用技术在事件循环中不断处理客户端情况。
思考:
为什么Redis要选择单线程?
1.抛开持久化不谈,Redis是纯内存操作,执行速度非常快,它的性能瓶颈是网络延迟而不是执行速度,因此多线程并不会带来巨大的性能提升。
2.多线程会导致过多的上下文切换,带来不必要的开销
3.引入多线程会面临线程安全问题,必然要引入线程锁这样的安全手段,实现复杂度增高,而且性能也会大打折扣
Redis通过IO多路复用来提高网络性能,并且支持各种不同的多路复用实现,并且将这些实现进行封装, 提供了统一的高性能事件库API库 AE:
来看下Redis单线程网络模型的整个流程:
Redis 6.0版本中引入了多线程,目的是为了提高IO读写效率。因此在解析客户端命令、写响应结果时采用了多线程。核心的命令执行、IO多路复用模块依然是由主线程执行。
Redis是一个CS架构的软件,通信一般分两步(不包括pipeline和PubSub):
因此客户端发送命令的格式、服务端响应结果的格式必须有一个规范,这个规范就是通信协议。 而在Redis中采用的是RESP(Redis Serialization Protocol)协议:
Redis 1.2版本引入了RESP协议
Redis 2.0版本中成为与Redis服务端通信的标准,称为RESP2
Redis 6.0版本中,从RESP2升级到了RESP3协议,增加了更多数据类型并且支持6.0的新特性--客户端缓存
但目前,默认使用的依然是RESP2协议,也是我们要学习的协议版本(以下简称RESP)。
RESP协议-数据类型
在RESP中,通过首字节的字符来区分不同数据类型,常用的数据类型包括5种:
1. 如果大小为0,则代表空字符串:"$0rnrn"
2. 如果大小为-1,则代表不存在:"$-1rn"
模拟Redis客户端-建立连接
Redis支持TCP通信,因此我们可以使用Socket来模拟客户端,与Redis服务端建立连接:
模拟Redis客户端-发送请求
这里我们以set命令为例,发送请求就是输出下面内容:
模拟Redis客户端-解析结果
响应的结果可能是之前讲的5种数据类型中的任意一种,需要判断后读取:
模拟Redis客户端-测试
最终,我们测试发送请求和接收响应:
Redis内存回收
Redis之所以性能强,最主要的原因就是基于内存存储。然而单节点的Redis其内存大小不宜过大,会影响持久化或主从同步性能。
我们可以通过修改配置文件来设置Redis的最大内存:
当内存使用达到上限时,就无法存储更多数据了。为了解决这个问题,Redis提供了一些策略实现内存回收:
在学习Redis缓存的时候我们说过,可以通过expire命令给Redis的key设置TTL(存活时间):
可以发现,当key的TTL到期以后,再次访问name返回的是nil,说明这个key已经不存在了,对应的内存也得到释放。从而起到内存回收的目的。
思考:
这里有两个问题需要我们思考:
1.Redis是如何知道一个key是否过期呢?
2.是不是TTL到期就立即删除了呢?
过期策略-DB结构
Redis本身是一个典型的key-value内存存储数据库,因此所有的key、value都保存在之前学习过的Dict结构中。不过在其database结构体中,有两个Dict:一个用来记录key-value;另一个用来记录key-TTL。
思考:
这里有两个问题需要我们思考:
Redis是如何知道一个key是否过期呢?
利用两个Dict分别记录key-value对及key-ttl对
是不是TTL到期就立即删除了呢?
惰性删除 周期删除
思考:
这里有两个问题需要我们思考:
1.Redis是如何知道一个key是否过期呢?
2.是不是TTL到期就立即删除了呢?
过期策略-惰性删除
惰性删除:顾明思议并不是在TTL到期后就立刻删除,而是在访问一个key的时候,检查该key的存活时间,如果已经过期才执行删除。
过期策略-周期删除
周期删除:顾明思议是通过一个定时任务,周期性的抽样部分过期的key,然后执行删除。执行周期有两种:
SLOW模式规则:
执行频率受server.hz影响,默认为10,即每秒执行10次,每个执行周期100ms。
执行清理耗时不超过一次执行周期的25%.默认slow模式耗时不超过25ms
逐个遍历db,逐个遍历db中的bucket,抽取20个key判断是否过期
如果没达到时间上限(25ms)并且过期key比例大于10%,再进行一次抽样,否则结束
FAST模式规则(过期key比例小于10%不执行 ):
执行频率受beforeSleep()调用频率影响,但两次FAST模式间隔不低于2ms
执行清理耗时不超过1ms
逐个遍历db,逐个遍历db中的bucket,抽取20个key判断是否过期
如果没达到时间上限(1ms)并且过期key比例大于10%,再进行一次抽样,否则结束
总结:
RedisKey的TTL记录方式:
在RedisDB中通过一个Dict记录每个Key的TTL时间
过期key的删除策略:
惰性清理:每次查找key时判断是否过期,如果过期则删除
定期清理:定期抽样部分key,判断是否过期,如果过期则删除。
定期清理的两种模式:
SLOW模式执行频率默认为10,每次不超过25ms
FAST模式执行频率不固定,但两次间隔不低于2ms,每次耗时不超过1ms
内存淘汰:就是当Redis内存使用达到设置的上限时,主动挑选部分key删除以释放更多内存的流程。Redis会在处理客户端命令的方法processCommand()中尝试做内存淘汰:
Redis支持8种不同策略来选择要删除的key:
比较容易混淆的有两个:
淘汰策略
Redis的数据都会被封装为RedisObject结构:
LFU的访问次数之所以叫做逻辑访问次数,是因为并不是每次key被访问都计数,而是通过运算:
1.生成0~1之间的随机数R
2.计算 (旧次数 * lfu_log_factor + 1),记录为P
3.如果 R < P ,则计数器 + 1,且最大不超过255
4.访问次数会随时间衰减,距离上一次访问时间每隔 lfu_decay_time 分钟,计数器 -1
本文发布于:2024-01-31 23:37:52,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170671547232221.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |