Redis
Redis
简介
NoSQL
简介
- NoSQL(Not Only SQL),泛指非关系型的数据库
- NoSQL不依赖业务逻辑方式存储,而以简单的key-value模式存储,因此大大的增加了数据库的扩展能力
- 不遵循SQL标准
- 不支持ACID
- 远超于SQL的性能
适用场景
- 对数据高并发的读写
- 海量数据的读写
- 对数据高可扩展性的
不适用场景
- 需要事务支持
- 基于SQL的结构化查询存储,处理复杂的关系需要即席查询
用不着SQL的和用了SQL也不行的情况,请考虑用NoSQL
Redis
- 几乎覆盖了Memcached的绝大部分功能
- 数据都在内存中,支持持久化,主要用作备份恢复
- 除了支持简单的key-value模式,还支持多种数据结构的存储,比如list、set、hash、zset等
- 一般作为缓存数据库辅助持久化的数据库
MongoDB
- 高性能、开源、模式自由(schema free)的文档型数据库
- 数据都在内存中,如果内存不足,把不常用的数据保存到硬盘
- 虽然是key-value模式,但是对value(尤其是json)提供了丰富的查询功能
- 支持二进制数据及大型对象
- 可以根据数据的特点替代RDBMS,成为独立的数据库。或者配合RDBMS,存储特定的数据
Redis
开源的key-value存储系统
支持存储的value类型包括string(字符串)、list(链表)、set(集合)、zset(sorted set –有序集合)和hash(哈希类型)
这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的
支持各种不同方式的排序
为了保证效率,数据都是缓存在内存中
会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件
实现master-slave(主从)同步
使用单线程 + 多路IO复用技术
应用场景
- 配合关系型数据库做高速缓存:
- 高频次,热门访问的数据,降低数据库IO
- 分布式架构,做session共享
- 多样的数据结构存储持久化数据:
- 排行榜
- 时效性数据
- ……
安装
- Redis中文官方网站http://redis.cn/
- redis-benchmark:性能测试工具
- redis-check-aof:修复有问题的AOF文件,rdb和aof后面讲
- redis-check-dump:修复有问题的dump.rdb文件
- redis-sentinel:Redis集群使用
- redis-server:Redis服务器启动命令
- redis-cli:客户端,操作入口
后台启动
备份redis.conf
拷贝一份redis.conf到其他目录
修改redis.conf(128行)文件将里面的daemonize no 改成 yes,让服务在后台启动
Redis启动
redis-server /usr/local/redis-6.2.5/redis.conf
用客户端访问
redis-cli
多端口访问
redis-cli -p 6379
远程命令
1
2
3
4
5# 启动数据库
./redis-server /usr/local/redis-6.0.6/redis.conf
# 连接数据库
redis-cli -h host
auth password
Redis关闭
- 单实例关闭
redis-cli shutdown
- 也可以进入终端后再关闭
- 多实例/指定端口关闭
redis-cli -p 6379 shutdown
基础知识
- 默认端口:6379
- 默认16个数据库,类似数组下标从0开始,初始默认使用0号库
- 使用命令
select <dbid>
来切换数据库,如:select 8 - 统一密码管理,所有库同样密码
- dbsize:查看当前数据库的key的数量
- flushdb:清空当前库
- flushall:通杀全部库
原子性
- 不会被线程调度机制打断的操作
- 这种操作一旦开始,就一直运行到结束,中间不会有任何context switch(切换到另一个线程)
- 在单线程中, 能够在单条指令中完成的操作都可以认为是”原子操作”,因为中断只能发生于指令之间
- 在多线程中,不能被其它进程(线程)打断的操作就叫原子操作
- Redis单命令的原子性主要得益于Redis的单线程
配置文件
redis.conf
Units:配置大小单位定义了一些基本的度量单位,只支持bytes不支持bit,大小写不敏感
INCLUDES:多实例的情况可以把公用的配置文件提取出来,类似jsp中的include
网络相关配置:
- bind:
- 默认情况bind=127.0.0.1,只能接受本机的访问请求
- 不写的情况下,无限制接受任何ip地址的访问
- 生产环境肯定要写你应用服务器的地址;服务器是需要远程访问的,所以需要将其注释掉
- 如果开启了protected-mode,那么在没有设定bind ip且没有设密码的情况下,Redis只允许接受本机的响应
- protected-mode:本机访问保护模式(远程访问需关闭)
- Port:端口号,默认 6379
- tcp-backlog:设置tcp的backlog
- backlog其实是一个连接队列,backlog队列总和 = 未完成三次握手队列 + 已经完成三次握手队列
- 在高并发环境下你需要一个高backlog值来避免慢客户端连接问题
- timeout:一个空闲的客户端维持多少秒会关闭,0表示关闭该功能,即永不关闭
- tcp-keepalive:对访问客户端的一种心跳检测,每个n秒检测一次
- 单位为秒,如果设置为0则不会进行Keepalive检测,建议设置成60
GENERAL:
- daemonize:是否为后台进程
- pidfile:存放pid文件的位置,每个实例会产生一个不同的pid文件
- loglevel:指定日志记录级别
- Redis总共支持四个级别:debug、verbose、notice、warning,默认为notice
- 四个级别根据使用阶段来选择,生产环境选择notice或者warning
- logfile:日志文件名称
- databases:设定库的数量,默认16
SECURITY:访问密码的查看、设置和取消
- 在命令中设置密码只是临时的,重启redis服务器密码就还原了
- 永久设置,需要再配置文件中进行设置。
LIMITS:
- maxclients:设置redis同时可以与多少个客户端进行连接,默认情况下为10000个客户端
- 如果达到了此限制,redis则会拒绝新的连接请求,并且向这些连接请求方发出“max number of clients reached”以作回应
- maxmemory :设置redis可以使用的内存量
- 建议必须设置,否则将内存占满造成服务器宕机
- 一旦到达内存使用上限,redis将会试图移除内部数据,移除规则可以通过maxmemory-policy来指定
- 如果redis无法根据移除规则来移除内存中的数据,或者设置了“不允许移除”,那么redis则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH等。
- 但是对于无内存申请的指令,仍然会正常响应,比如GET等。如果你的redis是主redis(说明你的redis有从redis),那么在设置内存使用上限时,需要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的情况下,才不用考虑这个因素
- maxmemory-policy
- volatile-lru:使用LRU算法移除key,只对设置了过期时间的键(最近最少使用)
- allkeys-lru:在所有集合key中,使用LRU算法移除key
- volatile-random:在过期集合中移除随机的key,只对设置了过期时间的键
- allkeys-random:在所有集合key中,移除随机的key
- volatile-ttl:移除那些TTL值最小的key,即那些最近要过期的key
- noeviction:不进行移除。针对写操作,只是返回错误信息
- maxmemory-samples:设置样本数量
- LRU算法和最小TTL算法都并非是精确的算法,而是估算值,所以你可以设置样本的大小,redis默认会检查这么多个key并选择其中LRU的那个
- 一般设置3到7的数字,数值越小样本越不准确但性能消耗越小
Key
keys *
:查看当前库所有key
exists key
:判断某个key是否存在
type key
:查看你的key是什么类型
del key
:删除指定的key数据
unlink key
:根据value选择非阻塞删除
- 仅将keys从keyspace元数据中删除,真正的删除会在后续异步操作
expire key <second>
:为给定的key设置过期时间
ttl key
:查看还有多少秒过期
- -1:永不过期
- -2:已过期
Value
String
最基本的数据类型,value最多可以是512M
二进制安全,意味着Redis的String可以包含任何数据,比如jpg图片或者序列化的对象
常用命令
set <key> <value>
:添加键值对- *NX:当数据库中key不存在时,可以将key-value添加数据库
- *XX:当数据库中key存在时,可以将key-value添加数据库,与NX参数互斥
- *EX:key的超时秒数
- *PX:key的超时毫秒数,与EX互斥
get <key>
:查询对应键值append <key> <value>
:将给定的<value>追加到原值的末尾strlen <key>
:获得值的长度setnx <key> <value>
:只有在key不存在时设置key的值incr <key>
:将key中储存的数字值增1- 只能对数字值操作,如果为空新增值为1
decr <key>
:将key中储存的数字值减1- 只能对数字值操作,如果为空新增值为-1
incrby/decrby <key> <步长>
:将key中储存的数字值增减自定义步长mset <key1> <value1> <key2> <value2>
:同时设置一个或多个 key-value对mget <key1> <key2>
:同时获取一个或多个 valuemsetnx <key1> <value1> <key2> <value2>
:同时设置一个或多个key-value对,当且仅当所有给定key都不存在- 原子性,有一个失败则都失败
getrange <key> <起始位置> <结束位置>
:获得值的范围,类似java中的substring,[ ]setrange <key> <起始位置> <value>
:用<value>覆写<key>所储存的字符串值,从<起始位置>开始(索引从0开始)setex <key> <过期时间> <value>
:设置键值的同时,设置过期时间,单位秒getset <key> <value>
:以新换旧,设置了新值同时获得旧值
数据结构
- String的数据结构为简单动态字符串(Simple Dynamic String)是可以修改的字符串,内部结构实现上类似于Java的ArrayList,采用预分配冗余空间的方式来减少内存的频繁分配
- 当字符串长度小于1M时,扩容都是加倍现有的空间,如果超过1M,扩容时一次只会多扩1M的空间。需要注意的是字符串最大长度为512M
List
单键多值
简单的字符串列表,按照插入顺序排序,可以添加一个元素到列表的头部(左边)或者尾部(右边)
它的底层实际是个双向链表,对两端的操作性能很高,通过索引下标的操作中间的节点性能会较差
常用命令
lpush/rpush <key> <value1> <value2>
:从左边/右边插入一个或多个值lpop/rpop <key>
:从左边/右边吐出一个值(值在键在,值光键亡)rpoplpush <key1> <key2>
:从<key1>列表右边吐出一个值,插到<key2>列表左边lrange <key> <start> <stop>
:按照索引下标获得元素(从左到右)- range mylist 0 -1:
- 0左边第一个
- -1右边第一个
- 0 -1表示获取所有
- range mylist 0 -1:
lindex <key> <index>
:按照索引下标获得元素(从左到右)llen <key>
:获得列表长度linsert <key> before/after <value> <newvalue>
:在<value>的后面插入<newvalue>插入值lrem <key> <n> <value>
:从左边删除n个value(从左到右)lset <key> <index> <value>
:将列表key下标为index的值替换成value
数据结构
- List的数据结构为快速链表quickList
- 列表元素较少的情况下会使用一块连续的内存存储,这个结构是ziplist,也即是压缩列表
- 它将所有的元素紧挨着一起存储,分配的是一块连续的内存。
当数据量比较多的时候才会改成quicklist - 因为普通的链表需要的附加指针空间太大,会比较浪费空间
- Redis将链表和ziplist结合起来组成了quicklist。也就是将多个ziplist使用双向指针串起来使用。这样既满足了快速的插入删除性能,又不会出现太大的空间冗余
Set
对外提供的功能与list类似是一个列表的功能,特殊之处在于set是可以自动排重的,当需要存储一个列表数据,又不希望出现重复数据时,set是一个很好的选择,并且set提供了判断某个成员是否在一个set集合内的重要接口,这个也是list所不能提供的
是String类型的无序集合,它底层其实是一个value为null的hash表,所以添加,删除,查找的复杂度都是O(1)
- 一个算法随着数据的增加执行时间的长短如果是O(1),数据增加查找数据的时间不变
常用命令
sadd <key> <value1> <value2>
:将一个或多个member元素加入到集合key中,已经存在的member元素将被忽略smembers <key>
:取出该集合的所有值sismember <key> <value>
:判断集合<key>是否为含有该<value>值,有1没有0scard <key>
:返回该集合的元素个数srem <key> <value1> <value2>
:删除集合中的某个元素spop <key>
:随机从该集合中吐出一个值srandmember <key> <n>
:随机从该集合中取出n个值,不会从集合中删除smove <source> <destination> <value>
:把集合中一个值从一个集合移动到另一个集合sinter <key1> <key2>
:返回两个集合的交集元素sunion <key1> <key2>
:返回两个集合的并集元素sdiff <key1> <key2>
:返回两个集合的差集元素(key1中的,不包含key2中的)
数据结构
- Set数据结构是dict字典,字典是用哈希表实现的
- Java中HashSet的内部实现使用的是HashMap,只不过所有的value都指向同一个对象。Redis的set结构也是一样,它的内部也使用hash结构,所有的value都指向同一个内部值
Hash
是一个string类型的field和value的映射表,hash特别适合用于存储对象
类似Java里面的Map<String, Object>
用户ID为查找的key,存储的value用户对象包含姓名,年龄,生日等信息,如果用普通的key/value结构来存储
- 方式1:
- Key:用户ID
- 序列化的Value对象:
- 姓名数据
- 年龄数据
- 生日数据
- 每次修改用户的某个属性需要先反序列化改好后再序列化回去,开销较大
- 方式2:
- Key:
- 用户ID + 姓名标签
- 用户ID + 年龄标签
- 用户ID + 生日标签
- Value:
- 姓名数据
- 年龄数据
- 生日数据
- 用户ID数据冗余
- Key:
- 方式3:
- Key:用户ID
- Hash:
- Field:
- 姓名标签
- 年龄标签
- 生日标签
- Value:
- 姓名数据
- 年龄数据
- 生日数据
- Field:
- 通过key(用户ID) + field(属性标签) 就可以操作对应属性数据,既不需要重复存储数据也不会带来序列化和并发修改控制的问题
常用命令
hset <key> <field> <value>
:给<key>集合中的 <field>键赋值<value>hget <key1> <field>
:从<key1>集合<field>取出valuehmset <key1> <field1> <value1> <field2> <value2>
:批量设置hash的值hexists <key1> <field>
:查看哈希key中给定域field是否存在hkeys <key>
:列出该hash集合的所有fieldhvals <key>
:列出该hash集合的所有valuehincrby <key> <field> <increment>
:为哈希表key中的域field的值加上增量 1 -1hsetnx <key> <field> <value>
:将哈希表key中的域field的值设置为value,当且仅当域field不存在
数据结构
- Hash类型对应的数据结构是两种:ziplist(压缩列表),hashtable(哈希表)当field-value长度较短且个数较少时使用ziplist,否则使用hashtable
Zset
有序集合zset与普通集合set非常相似,是一个没有重复元素的字符串集合,不同之处是有序集合的每个成员都关联了一个评分(score),这个评分被用来按照从最低分到最高分的方式排序集合中的成员,集合的成员唯一,但评分可以重复
因为元素是有序的, 所以可以很快的根据评分(score)或者次序(position)来获取一个范围的元素
访问有序集合的中间元素也非常快,因此能够使用有序集合作为一个没有重复成员的智能列表
常用命令
zadd <key> <score1> <value1> <score2> <value2>
:将一个或多个member元素及其score值加入到有序集key当中zrange <key> <start> <stop> [WITHSCORES]
:返回有序集key中,下标在<start><stop>之间的元素- 带WITHSCORES可以让分数一起和值返回到结果集
zrangebyscore key minmax [withscores] [limit offset count]
:返回有序集key中所有score值介于min和max之间[ ]的成员,有序集成员按score值递增次序排列zrevrangebyscore key maxmin [withscores] [limit offset count]
:同上,改为从大到小排列zincrby <key> <increment> <value>
:为元素的score加上增量zrem <key> <value>
:删除该集合下指定值的元素zcount <key> <min> <max>
:统计该集合分数区间内的元素个数zrank <key> <value>
:返回该值在集合中的排名,从0开始
数据结构
SortedSet(zset)是Redis提供的一个非常特别的数据结构,一方面它等价于Java的数据结构Map<String, Double>,可以给每一个元素value赋予一个权重score,另一方面它又类似于TreeSet,内部的元素会按照权重score进行排序,可以得到每个元素的名次,还可以通过score的范围来获取元素的列表
zset底层使用了两个数据结构:
hash,hash的作用就是关联元素value和权重score,保障元素value的唯一性,可以通过元素value找到相应的score值
- Key:
- Hash:
- Field:Value值
- Value:Score值
跳跃表,跳跃表的目的在于给元素value排序,根据score的范围获取元素列表
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16//有序列表
1 → 11 → 21 → 31 → 41 → 51 → 61 → null
//要查找值为51的元素,需要从第一个元素开始依次查找比较才能找到,共需要6次比较
//跳跃表
//第2层
1 → → → → 21 → → → → → → → → → → → → → null
//第1层
1 → → → → 21 → → → → 41 → → → → 61 → null
//第0层
1 → 11 → 21 → 31 → 41 → 51 → 61 → null
//从第2层开始,1节点比51节点小,向后比较
//21节点比51节点小,继续向后比较,后面就是NULL了,所以从21节点向下到第1层
//在第1层,41节点比51节点小,继续向后,61节点比51节点大,所以从41向下
//在第0层,51节点为要查找的节点,节点被找到,共查找4次
//从此可以看出跳跃表比有序链表效率要高
Bitmaps
本身不是一种数据类型, 实际上它就是字符串(key-value) 但是它可以对字符串的位进行操作
单独提供了一套命令, 所以在Redis中使用Bitmaps和使用字符串的方法不太相同。可以把Bitmaps想象成一个以位为单位的数组,数组的每个单元只能存储0和1,数组的下标在Bitmaps中叫做偏移量
key:
value:[0, 1, 0, 0, 1, 1, 1, 0, 1, 0]
常用命令
setbit <key> <offset> <value>
:设置Bitmaps中某个偏移量的值(0或1)- offset:偏移量,从0开始
- 实例:每个独立用户是否访问过网站存放在Bitmaps中, 将访问的用户记做1, 没有访问的用户记做0, 用偏移量作为用户的id,设置键的第offset个位的值(从0算起), 假设现在有20个用户,userid=1, 6, 11, 15, 19的用户对网站进行访问:
setbit users:20210101 1 1
- users:20210101:代表2021-01-01这天的访问用户的Bitmaps
- 很多应用的用户id以一个指定数字(例如10000)开头,直接将用户id和Bitmaps的偏移量对应势必会造成一定的浪费, 通常的做法是每次做setbit操作时将用户id减去这个指定数字。
- 在第一次初始化Bitmaps时, 假如偏移量非常大, 那么整个初始化过程执行会比较慢, 可能会造成Redis的阻塞
getbit <key> <offset>
:获取Bitmaps中某个偏移量的值,获取键的第offset位的值(从0开始算)- 实例:获取id=8的用户是否在2020-01-01这天访问过, 返回0说明没有访问过:
getbit users:20210101 8
- 实例:获取id=8的用户是否在2020-01-01这天访问过, 返回0说明没有访问过:
bitcount <key> [start end]
:统计字符串从start字节到end字节比特值为1的数量- 一般情况下,给定的整个字符串都会被进行计数
- start和end都可以使用负数值:
- 比如-1表示最后一个位,-2表示倒数第二个位
- start/end指bit组的字节的下标数,[ ]
bitop and/or/not/xor <destkey> [key…]
:bitop是一个复合操作, 它可以做多个Bitmaps的and(交集) 、 or(并集) 、 not(非) 、 xor(异或) 操作并将结果保存在destkey中。
Bitmaps与Set对比
假设网站有1亿用户, 每天独立访问的用户有5千万, 如果每天用集合类型和Bitmaps分别存储活跃用户
数据类型 每个用户id占用空间 需要存储的用户量 全部内存量 集合类型 64位 50000000 64位*50000000 = 400MB Bitmaps 1位 100000000 1位*100000000 = 12.5MB 假如该网站每天的独立访问用户很少, 例如只有10万(大量的僵尸用户) 这时候使用Bitmaps就不太合适, 因为基本上大部分位都是0
数据类型 每个userid占用空间 需要存储的用户量 全部内存量 集合类型 64位 100000 64位*100000 = 800KB Bitmaps 1位 100000000 1位*100000000 = 12.5MB
HyperLogLog
Redis HyperLogLog是用来做基数统计的算法,HyperLogLog的优点是在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的
适用于UV(UniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题
每个HyperLogLog键只需要花费12KB内存就可以计算接近2^64个不同元素的基数,但HyperLogLog只会根据输入元素来计算基数而不会储存输入元素本身,所以HyperLogLog不能像集合那样返回输入的各个元素
基数:比如数据集{1, 3, 5, 7, 5, 7, 8},那么这个数据集的基数集为{1, 3, 5 ,7, 8},基数(不重复元素)为5。基数估计就是在误差可接受的范围内快速计算基数
常用命令
pfadd <key> <element> [element ...]
:添加指定元素到 HyperLogLog中- 将所有元素添加到指定HyperLogLog数据结构中。如果执行命令后HLL估计的近似基数发生变化,则返回1,否则返回0
pfcount <key> [key ...]
:计算HLL的近似基数,可以计算多个HLL- 比如用HLL存储每天的UV,计算一周的UV可以使用7天的UV合并计算即可
pfmerge <destkey> <sourcekey> [sourcekey ...]
:将一个或多个HLL合并后的结果存储在另一个HLL中- 比如每月活跃用户可以使用每天的活跃用户来合并计算可得
Geospatial
Redis 3.2中增加了对GEO类型的支持,GEO/Geographic,地理信息的缩写。该类型是元素的2维坐标,在地图上就是经纬度。redis基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash等常见操作
常用命令
geoadd <key> <longitude> <latitude> <member> [longitude latitude member...]
:添加地理位置(经度,纬度,名称)- geoadd china:city 121.47 31.23 shanghai
- geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen 116.38 39.90 beijing
- 两极无法直接添加,一般会下载城市数据,直接通过Java程序一次性导入
- 有效的经度从-180度到180度
- 有效的纬度从-85.05112878度到85.05112878度
- 当坐标位置超出指定范围时该命令将会返回一个错误
- 已经添加的数据是无法再次往里面添加的
geopos <key> <member> [member...]
:获得指定地区的坐标geodist <key> <member1> <member2> [m|km|ft|mi]
:获取两个位置之间的直线距离- m表示单位为米[默认值]
- km表示单位为千米
- mi表示单位为英里
- ft表示单位为英尺
georadius <key> <longitude> <latitude> radius m|km|ft|mi
:以给定的经纬度为中心,找出某一半径内的元素- 经度 纬度 距离 单位
发布订阅
pub/sub,是一种消息通信模式:发送者(pub)发送消息,订阅者 (sub)接收消息
Redis客户端可以订阅任意数量的频道
命令实现
打开一个客户端订阅channel1
SUBSCRIBE channel1
打开另一个客户端,给channel1发布消息hello
publish channel1 hello
返回的1是订阅者数量
打开第一个客户端可以看到发送的消息
发布的消息没有持久化,如果在订阅的客户端收不到hello,只能收到订阅后发布的消息
Jedis
1 |
|
完成一个手机验证码功能
1 |
|
SpringBoot整合
在pom.xml文件中引入redis相关依赖
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15<!-- redis -->
<!-- https://mvnrepository.com/artifact/org.springframework.boot/spring-boot-starter-data-redis -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
<version>2.5.4</version>
</dependency>
<!-- spring2.X集成redis所需common-pool2-->
<!-- https://mvnrepository.com/artifact/org.apache.commons/commons-pool2 -->
<dependency>
<groupId>org.apache.commons</groupId>
<artifactId>commons-pool2</artifactId>
<version>2.11.1</version>
</dependency>application.properties配置redis配置
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16#Redis服务器地址
spring.redis.host=127.0.0.1
#Redis服务器连接端口
spring.redis.port=6379
#Redis数据库索引(默认为0)
spring.redis.database= 0
#连接超时时间(毫秒)
spring.redis.timeout=1800000
#连接池最大连接数(使用负值表示没有限制)
spring.redis.lettuce.pool.max-active=20
#最大阻塞等待时间(负数表示没限制)
spring.redis.lettuce.pool.max-wait=-1
#连接池中的最大空闲连接
spring.redis.lettuce.pool.max-idle=5
#连接池中的最小空闲连接
spring.redis.lettuce.pool.min-idle=0添加redis配置类
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45@EnableCaching
@Configuration
public class RedisConfig extends CachingConfigurerSupport {
@Bean
public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory factory) {
RedisTemplate<String, Object> template = new RedisTemplate<>();
RedisSerializer<String> redisSerializer = new StringRedisSerializer();
Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
ObjectMapper om = new ObjectMapper();
om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
jackson2JsonRedisSerializer.setObjectMapper(om);
template.setConnectionFactory(factory);
//key序列化方式
template.setKeySerializer(redisSerializer);
//value序列化
template.setValueSerializer(jackson2JsonRedisSerializer);
//value hashmap序列化
template.setHashValueSerializer(jackson2JsonRedisSerializer);
return template;
}
@Bean
public CacheManager cacheManager(RedisConnectionFactory factory) {
RedisSerializer<String> redisSerializer = new StringRedisSerializer();
Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
//解决查询缓存转换异常的问题
ObjectMapper om = new ObjectMapper();
om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
jackson2JsonRedisSerializer.setObjectMapper(om);
// 配置序列化(解决乱码的问题),过期时间600秒
RedisCacheConfiguration config = RedisCacheConfiguration.defaultCacheConfig()
.entryTtl(Duration.ofSeconds(600))
.serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(redisSerializer))
.serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(jackson2JsonRedisSerializer))
.disableCachingNullValues();
RedisCacheManager cacheManager = RedisCacheManager.builder(factory)
.cacheDefaults(config)
.build();
return cacheManager;
}
}
RedisTestController中添加测试方法
1 |
|
事务
事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断
Redis主要是串联多个命令防止别的命令插队
三特性
- 单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。
- 没有隔离级别的概念:队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行
- 不保证原子性:事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚
Multi/Exec/discard
- 从输入Multi命令开始,输入的命令都会依次进入命令队列中,但不会执行
- 直到输入Exec后,Redis会将之前的命令队列中的命令依次执行
- 组队的过程中可以通过discard来放弃组队
错误处理
- 组队中某个命令出现了报告错误,执行时整个的所有队列都会被取消
- 如果执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚
悲观锁
- Pessimistic Lock
- 每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁
- 传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁
乐观锁
- Optimistic Lock
- 每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据
- 可以使用版本号等机制,乐观锁适用于多读的应用类型,这样可以提高吞吐量
- Redis就是利用这种check-and-set机制实现事务的
常用命令
WATCH key [key ...]
:在执行multi之前,先执行watch key1 [key2]- 可以监视一个(或多个) key ,如果在事务执行之前这个(或这些)key被其他命令所改动,那么事务将被打断
unwatch
:取消WATCH命令对所有key的监视- 如果在执行WATCH命令之后,EXEC命令或DISCARD命令先被执行了的话,那么就不需要再执行UNWATCH
连接池
连接超时,通过连接池解决
1 |
|
连接池参数
- MaxTotal:控制一个pool可分配多少个jedis实例,通过pool.getResource()来获取
- 如果赋值为-1,则表示不限制
- 如果pool已经分配了MaxTotal个jedis实例,则此时pool的状态为exhausted
- maxIdle:控制一个pool最多有多少个状态为idle(空闲)的jedis实例
- MaxWaitMillis:表示当borrow一个jedis实例时,最大的等待毫秒数,如果超过等待时间,则直接抛JedisConnectionException
- testOnBorrow:获得一个jedis实例的时候是否检查连接可用性(ping())
- 如果为true,则得到的jedis实例均是可用的
LUA脚本
解决库存遗留问题
一个小巧的脚本语言,Lua脚本可以很容易的被C/C++代码调用,也可以反过来调用C/C++的函数,Lua并没有提供强大的库,一个完整的Lua解释器不过200k,所以Lua不适合作为开发独立应用程序的语言,而是作为嵌入式脚本语言
在Redis中的优势
- 将复杂的或者多步的redis操作,写为一个脚本,一次提交给redis执行,减少反复连接redis的次数。提升性能
- LUA脚本是类似redis事务,有一定的原子性,不会被其他命令插队,可以完成一些redis事务性的操作
- 但是注意redis的lua脚本功能,只有在Redis 2.6以上的版本才可以使用
- 利用lua脚本淘汰用户,解决超卖问题
- redis 2.6版本以后,通过lua脚本解决争抢问题,实际上是redis利用其单线程的特性,用任务队列的方式解决多任务并发问题
持久化
RDB
Redis DataBase
在指定的时间间隔内将内存中的数据集快照写入磁盘, 也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里
Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了再用这个临时文件替换上次持久化好的文件。 整个过程中主进程是不进行任何IO操作的,这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效
缺点是最后一次持久化后的数据可能丢失
Fork
- Fork的作用是复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等)数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程
- 在Linux程序中fork()会产生一个和父进程完全相同的子进程但子进程在此后多会exec系统调用,出于效率考虑Linux中引入了“写时复制技术”
- 一般情况父进程和子进程会共用同一段物理内存,只有进程空间的各段的内容要发生变化时才会将父进程的内容复制一份给子进程
持久化流程
1 |
|
dump.rdb
- 在redis.conf中配置文件名称,默认为dump.rdb
- rdb文件的保存路径,也可以修改。默认为Redis启动时命令行所在的目录下
dir "/myredis/"
- 配置文件中可更改默认的快照配置:
- save 秒钟 写操作次数
- After 60 seconds if at least 10000 keys changed:
- 若在60秒内更改了超过10000key,前10000key先进行持久化,后面的key重新计数
- 禁用:不设置save指令,或者给save传入空字符串
save/bgsave
- save :save时只管保存,其它不管,全部阻塞。手动保存。不建议
- bgsave:Redis会在后台异步进行快照操作, 快照同时还可以响应客户端请求
执行flushall命令,也会产生dump.rdb文件,但里面是空的,无意义
stop-writes-on-bgsave-error:当Redis无法写入磁盘的话直接关掉Redis的写操作
- 推荐yes
rdbchecksum:检查完整性
- 在存储快照后,还可以让redis使用CRC64算法来进行数据校验,
但是这样做会增加大约10%的性能消耗,如果希望获取到最大的性能提升,可以关闭此功能 - 推荐yes
备份/恢复
- 备份:
- 通过
config get dir
查询rdb文件的目录 - 将*.rdb的文件拷贝到别的地方
- 通过
- 恢复:
- 关闭Redis
- 把备份的文件拷贝到工作目录下
cp dump.rdb.bak dump.rdb
- 启动Redis,备份数据会直接加载
优势
- 适合大规模的数据恢复
- 对数据完整性和一致性要求不高更适合使用
- 节省磁盘空间
- 恢复速度快
劣势
- Fork的时候,内存中的数据被克隆了一份,大致2倍的膨胀性需要考虑
- 虽然Redis在fork时使用了写时拷贝技术,但是如果数据庞大时还是比较消耗性能
- 在备份周期在一定间隔时间做一次备份,所以如果Redis意外down掉的话,就会丢失最后一次快照后的所有修改
停止
- 动态停止RDB:redis-cli config set save “”#save后给空值,表示禁用保存策略
AOF
Append Only File,以日志的形式来记录每个写操作(增量保存),将Redis执行过的所有写指令记录下来(读操作不记录), 只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作
持久化流程
- 客户端的请求写命令会被append追加到AOF缓冲区内
- AOF缓冲区根据AOF持久化策略[always,everysec,no]将操作sync同步到磁盘的AOF文件中
- AOF文件大小超过重写策略或手动重写时,会对AOF文件rewrite重写,压缩AOF文件容量
- Redis服务重启时,会重新load加载AOF文件中的写操作达到数据恢复的目的
appendonly.aof
- 默认不开启,可以在redis.conf中配置文件名称,默认为 appendonly.aof
- 保存路径同RDB的路径一致
- AOF和RDB同时开启,系统默认取AOF的数据(数据不会存在丢失)
启动/修复/恢复
- AOF的备份机制和性能虽然和RDB不同, 但是备份和恢复的操作同RDB一样,都是拷贝备份文件,需要恢复时再拷贝到Redis工作目录下,启动系统即加载
- 正常恢复
- 修改默认的appendonly no,改为yes
- 将有数据的aof文件复制一份保存到对应目录
- 查看目录:
config get dir
- 查看目录:
- 恢复:重启redis然后重新加载
- 异常恢复
- 修改默认的appendonly no,改为yes
- 如遇到AOF文件损坏,通过/usr/local/bin/redis-check-aof –fix appendonly.aof进行恢复
- 备份被写坏的AOF文件
- 恢复:重启redis,然后重新加载
同步频率设置
- appendfsync always:始终同步,每次Redis的写入都会立刻记入日志,性能较差但数据完整性比较好
- appendfsync everysec:每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失
- appendfsync no:redis不主动进行同步,把同步时机交给操作系统
Rewrite压缩
set k1 v1; set k2 v2
->set k1 v1 k2 v2
AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename),redis4.0版本后的重写是指上就是把rdb的快照,以二级制的形式附在新的aof头部,作为已有的历史数据,替换掉原来的流水账操作
no-appendfsync-on-rewrite:
- 若为yes:不写入aof文件只写入缓存,用户请求不会阻塞,但是在这段时间如果宕机会丢失这段时间的缓存数据(降低数据安全性,提高性能)
- 若为no:还是会把数据往磁盘里刷,但是遇到重写操作,可能会发生阻塞(数据安全,但是性能降低)
Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发
重写虽然可以节约大量磁盘空间,减少恢复时间。但是每次重写还是有一定的负担的,因此设定Redis要满足一定条件才会进行重写
auto-aof-rewrite-percentage:设置重写的基准值,文件达到100%时开始重写(文件是原来重写后文件的2倍时触发)
auto-aof-rewrite-min-size:设置重写的基准值,最小文件64MB。达到这个值开始重写
- 例如:文件达到70MB开始重写,降到50MB,下次达到100MB开始重写
系统载入时或者上次重写完毕时,Redis会记录此时AOF大小,设为base_size
如果Redis的AOF当前大小 >= base_size + base_size*100%(默认)且当前大小>=64mb(默认)的情况下Redis会对AOF进行重写
重写流程
- bgrewriteaof触发重写,判断是否当前有bgsave或bgrewriteaof在运行,如果有,则等待该命令结束后再继续执行
- 主进程fork出子进程执行重写操作,保证主进程不会阻塞
- 子进程遍历redis内存中数据到临时文件,客户端的写请求同时写入aof_buf缓冲区和aof_rewrite_buf重写缓冲区保证原AOF文件完整以及新AOF文件生成期间的新的数据修改动作不会丢失
- 子进程写完新的AOF文件后,向主进程发信号,父进程更新统计信息
- 主进程把aof_rewrite_buf中的数据写入到新的AOF文件
- 使用新的AOF文件覆盖旧的AOF文件,完成AOF重写
1
2
3
4
5
6
7
8
9
10
11bgrewriteaof
↓ 1
redis主进程← ← ← ← ← ← ← ← ← ← ← ←
↓ 2 ↑
fork→ → → → → → →子进程 ↑ 4.1
↓ ↓ 3 ↑
↗ aof_rewrite_buf → 新AOF文件→ → → →
写命令 3 4.2 ↓
↘ aof_buf ↓ 5
↓ ↓
旧AOF文件← ← ← ← ← ← ← ←
优势
- 备份机制更稳健,丢失数据概率更低
- 可读的日志文本,通过操作AOF稳健,可以处理误操作
劣势
- 比起RDB占用更多的磁盘空间
- 恢复备份速度要慢
- 每次读写都同步的话,有一定的性能压力
- 存在个别Bug,造成恢复不能
总结
官方推荐两个都启用
如果对数据不敏感可以选单独用RDB
不建议单独用AOF因为可能会出现Bug
如果只是做纯内存缓存可以都不用
主从复制
主机数据更新后根据配置和策略,自动同步到备机的master/slaver机制:Master以写为主,Slave以读为主
读写分离,性能扩展
容灾快速恢复
1 |
|
搭建步骤
拷贝多个redis.conf文件include(写绝对路径)
开启daemonize yes
Pid文件名字pidfile
指定端口port
Log文件名字
dump.rdb名字dbfilename
Appendonly 关掉或者换名字
新建redis6379.conf并填写以下内容
1
2
3
4include /myredis/redis.conf
pidfile /var/run/redis_6379.pid
port 6379
dbfilename dump6379.rdb新建redis6380.conf并填写以下内容
1
2
3
4include /myredis/redis.conf
pidfile /var/run/redis_6380.pid
port 6380
dbfilename dump6380.rdb新建redis6381.conf并填写以下内容
1
2
3
4include /myredis/redis.conf
pidfile /var/run/redis_6381.pid
port 6381
dbfilename dump6381.rdbslave-priority 10:设置从机的优先级,值越小优先级越高,用于选举主机时使用。默认100
启动三台redis服务器:
redis-server redis6379.conf
info replication
:打印主从复制的相关信息slaveof <ip> <port>
:成为某个实例的从服务- 在6380和6381上执行:
slaveof 127.0.0.1 6379
- 从机重启需重设:
slaveof 127.0.0.1 6379
- 可以将配置增加到文件中,永久生效
- 在6380和6381上执行:
复制原理
- 从机连上主机后会向主机发送进行数据同步消息
- 主机收到请求后会先将主机数据持久化生成RDB文件,并把文件发送给从机
- 从机收到RDB进行读取
- 每次主机进行写操作后会和从机进行数据同步(将新的所有收集到的修改命令依次传给从机,增量复制)
特点
- 在主机上写,在从机上可以读取数据
- 在从机不能写数据
- 从服务器重启后会变成主服务器,需要重新设置
- 新加入的从服务器会从头复制主服务器的数据
- 主机挂掉,重启就行,一切如初
- 上一个从机可以是下一个从机的主机
- 可以有效减轻主机的写压力,去中心化,降低风险
用slaveof <ip> <port>
- 中途变更转向:会清除之前的数据,重新建立拷贝最新的数据
- 风险:
- 一旦某个从机宕机,后面的从机都没法备份
- 主机挂了,从机还是从机,无法写数据了
slaveof no one
:将从机变为主机- 当一个主机宕机后,后面的从机可以立刻升为主机,其后面的从机不用做任何修改
- 手动操作,若要自动实现需要哨兵模式
哨兵模式
sentinel
能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库
使用步骤
自定义的/myredis目录下新建sentinel.conf文件,名字绝不能错
配置哨兵,填写内容
1
2# 其中mymaster为监控对象起的服务器名称, 1为至少有多少个哨兵同意迁移的数量
sentinel monitor mymaster 127.0.0.1 6379 1启动哨兵:
redis-sentinel /myredis/sentinel.conf
- /usr/local/bin redis做压测可以用自带的redis-benchmark工具
- 执行
redis-sentinel /myredis/sentinel.conf
当主机挂掉,从机选举中产生新的主机
- 根据优先级别:slave-priority
- 原主机重启后会变为从机
复制延时
- 由于所有的写操作都是先在主机上操作,然后同步更新到从机上,所以从主机同步到从机机器有一定的延迟,当系统很繁忙的时候,延迟问题会更加严重,Slave机器数量的增加也会使这个问题更加严重
恢复步骤
- 从下线的主机所有的从机里挑选一个转为主机,选择条件为:
- 优先级考前的
- 优先级在redis.conf中
- 默认:slave-priority 100
- 值越小优先级越高
- 偏移量大的(获得原主机数据最全的)
- runid最小的(每个redis实例启动后都会随机生成一个40位的runid)
- 优先级考前的
- 挑选出新主机后哨兵向原主机发送slaveof新主机的命令,复制新主机
- 当下线的服务器重新上线时,哨兵会向其发送slaveof命令让其称为新主机的从机
主从复制
1 |
|
集群
Redis3.0集群实现了对Redis的水平扩容,即启动N个redis节点,将整个数据库分布存储在这N个节点中,每个节点存储总数据的1/N
Redis集群通过分区(partition)来提供一定程度的可用性(availability): 即使集群中有一部分节点失效或者无法进行通讯, 集群也可以继续处理命令请求
配置步骤
开启daemonize yes
Pid文件名字
指定端口
Log文件名字
Dump.rdb名字
Appendonly 关掉或者换名字
redis cluster配置修改
1
2
3
4
5
6
7
8
9
10
11include /home/bigdata/redis.conf
port 6379
pidfile "/var/run/redis_6379.pid"
dbfilename "dump6379.rdb"
logfile "/home/bigdata/redis_cluster/redis_err_6379.log"
# 打开集群模式
cluster-enabled yes
# 设定节点配置文件名
cluster-config-file nodes-6379.conf
# 设定节点失联时间,超过该时间(毫秒)集群自动进行主从切换
cluster-node-timeout 15000修改好redis6379.conf文件,拷贝多个redis.conf文件使用查找替换修改另外5个文件
启动6个redis服务
将六个节点合成一个集群
组合之前确保所有redis实例启动后nodes-xxxx.conf文件都生成正常
合体
1
2
3
4cd /opt/redis-6.2.1/src
# 此处不要用127.0.0.1,用真实IP地址
# --replicas 1:采用最简单的方式配置集群,一台主机,一台从机,正好三组
redis-cli --cluster create --cluster-replicas 1 192.168.11.101:6379 192.168.11.101:6380 192.168.11.101:6381 192.168.11.101:6389 192.168.11.101:6390 192.168.11.101:6391普通方式登录可能直接进入读主机存储数据时会出现MOVED重定向操作,所以应该以集群方式登录
redis-cli -c -p 6379
- -c:采用集群策略连接,设置数据会自动切换到相应的写主机
cluster nodes
:查看集群信息分配节点:
- 一个集群至少要有三个主节点
- 选项 –cluster-replicas 1 表示我们希望为集群中的每个主节点创建一个从节点
- 分配原则尽量保证每个主数据库运行在不同的IP地址,每个从库和主库不在一个IP地址上
slots
- 一个Redis集群包含16384个插槽(hash slot)数据库中的每个键都属于这16384个插槽的其中一个
- 集群使用公式CRC16(key)%16384来计算键key属于哪个槽,其中 CRC16(key)语句用于计算键key的CRC16校验和
- 集群中的每个节点负责处理一部分插槽。如果一个集群可以有主节点,其中:
- 节点A负责处理0号至5460号插槽
- 节点B负责处理5461号至10922号插槽
- 节点C负责处理10923号至16383号插槽
录入值
- 在redis-cli每次录入、查询键值,redis都会计算出该key应该送往的插槽,如果不是该客户端对应服务器的插槽,redis会报错,并告知应前往的redis实例地址和端口
- redis-cli客户端提供了 –c 参数实现自动重定向
- 如redis-cli -c –p 6379登入后,再录入、查询键值对可以自动重定向
- 不在一个slot下的键值,是不能使用mget,mset等多键操作
- 可以通过{}来定义组的概念,从而使key中{}内相同内容的键值对放到一个slot中去
mset name{user} lucy age{user} 20
- 根据组的值计算插槽
查询集群中的值
CLUSTER KEYSLOT <key>
:返回键的插槽值CLUSTER COUNTKEYSINSLOT <slot>
:返回该插槽值中键的数量- 服务器只能看自己插槽中的值
CLUSTER GETKEYSINSLOT <slot> <count>
:返回count个slot槽中的键
故障恢复
- 主节点下线,从节点自动升为主节点,15秒超时
- 主节点恢复后,变成从机
- 如果所有某一段插槽的主从节点都宕掉,根据redis.conf中的参数 cluster-require-full-coverage
- 若为yes:整个集群都挂掉
- 若为no:该插槽数据全都不能使用,也无法存储
Jedis开发
1 |
|
优点
- 实现扩容
- 分摊压力
- 无中心配置相对简单
缺点
- 不支持多键操作是
- 不支持多键的Redis事务,不支持lua脚本
- 由于集群方案出现较晚,很多公司已经采用了其他的集群方案,而代理或者客户端分片的方案想要迁移至redis cluster,需要整体迁移而不是逐步过渡,复杂度较大
应用问题解决
缓存穿透
key对应的数据在数据源并不存在,每次针对此key的请求从缓存获取不到,请求都会压到数据源,从而可能压垮数据源。比如用一个不存在的用户id获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库
现象
- 应用服务器压力突然变大
- Redis命中率降低
- 一直查询数据库
问题原因
- Redis查询不到数据
- 出现很多非正常URL访问
- 多是遭受到攻击
解决方案
- 一个一定不存在缓存及查询不到的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义
- 对空值缓存:如果一个查询返回的数据为空(不管是数据是否不存在)我们仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟
- 设置可访问的名单(白名单):使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果访问id不在bitmaps里面,进行拦截,不允许访问
- 采用布隆过滤器:布隆过滤器(Bloom Filter)实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)
- 布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难
- 将所有可能存在的数据哈希到一个足够大的bitmaps中,一个一定不存在的数据会被 这个bitmaps拦截掉,从而避免了对底层存储系统的查询压力
- 进行实时监控:当发现Redis的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务
缓存击穿
key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮
现象
- 数据访问压力瞬时增加
- Redis没有大量的Key过期
- Redis运行正常
问题原因
- Redis某个Key过期了,大量访问使用这个Key
解决方案
- key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:缓存被“击穿”的问题
- 预先设置热门数据:在redis高峰访问之前,把一些热门数据提前存入到redis里面,加大这些热门数据key的时长
- 实时调整:现场监控哪些数据热门,实时调整key的过期时长
- 使用锁:
- 就是在缓存失效的时候(判断拿出来的值为空),不是立即去load db
- 先使用缓存工具的某些带成功操作返回值的操作(比如Redis的SETNX)去set一个mutex key
- 当操作返回成功时,再进行load db的操作,并回设缓存,最后删除mutex key
- 当操作返回失败,证明有线程在load db,当前线程睡眠一段时间再重试整个get缓存的方法
缓存雪崩
key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮
缓存雪崩与缓存击穿的区别在于这里针对很多key缓存,前者则是某一个key
缓存失效时的雪崩效应对底层系统的冲击非常可怕
现象
- 数据库压力变大
- 服务器崩溃
问题原因
- 在极少时间段内,查询大量Key集中过期的情况
解决方案
- 构建多级缓存架构:nginx缓存 + redis缓存 + 其他缓存(ehcache等)
- 使用锁或队列:用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上
- 不适用高并发情况
- 设置过期标志更新缓存:记录缓存数据是否过期(设置提前量)如果过期会触发通知另外的线程在后台去更新实际key的缓存
- 将缓存失效时间分散开:比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件
分布式锁
随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多进程并且分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的Java API并不能提供分布式锁的能力。为了解决这个问题就需要一种跨JVM的互斥机制来控制共享资源的访问
主流实现方案
- 基于数据库实现分布式锁
- 基于缓存(Redis等)
- 性能最高
- 基于Zookeeper
- 可靠性最高
基于Redis解决
set <key> <value> NX EX <second>
- EX second:设置键的过期时间为 second 秒
SET key value EX second
效果等同于SETEX key second value
- PX millisecond:设置键的过期时间为 millisecond 毫秒
SET key value PX millisecond
效果等同于PSETEX key millisecond value
- NX:只在键不存在时,才对键进行设置操作
SET key value NX
效果等同于SETNX key value
- XX:只在键已经存在时,才对键进行设置操作
编写代码
1 |
|
UUID防误删
使用UUID表示不同的操作:
set lock uuid nx ex 10
只有UUID与自己的相同时才会释放锁
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21// 生成UUID
String uuid = UUID.randomUUID().toString();
//1获取锁,setne
// value替换为自己的UUID
Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", uuid, 3, TimeUnit.SECONDS);
//2获取锁成功、查询num的值
if (lock) {
Object value = redisTemplate.opsForValue().get("num");
//2.1判断num为空return
if (StringUtils.isEmpty(value)) {
return;
}
//2.2有值就转成成int
int num = Integer.parseInt(value + "");
//2.3把redis的num加1
redisTemplate.opsForValue().set("num", ++num);
//2.4释放锁,del
// 比较UUID值是否一样
if (uuid.equals(redisTemplate.opsForValue().get("lock"))) {
redisTemplate.delete("lock");
}
LUA脚本保证删除的原子性
1 |
|
总结
加锁
1
2
3
4// 1. 从redis中获取锁,set k1 v1 px 20000 nx
String uuid = UUID.randomUUID().toString();
Boolean lock = this.redisTemplate.opsForValue()
.setIfAbsent("lock", uuid, 2, TimeUnit.SECONDS);使用lua释放锁
1
2
3
4
5
6
7
8// 2. 释放锁 del
String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
// 设置lua脚本返回的数据类型
DefaultRedisScript<Long> redisScript = new DefaultRedisScript<>();
// 设置lua脚本返回类型为Long
redisScript.setResultType(Long.class);
redisScript.setScriptText(script);
redisTemplate.execute(redisScript, Arrays.asList("lock"),uuid);重试
1
2Thread.sleep(500);
testLock();为了确保分布式锁可用,我们至少要确保锁的实现同时满足以下四个条件:
- 互斥性:在任意时刻,只有一个客户端能持有锁
- 不会发生死锁:即使有一个客户端在持有锁的期间崩溃而没有主动解锁,也能保证后续其他客户端能加锁
- 解铃还须系铃人:加锁和解锁必须是同一个客户端,客户端自己不能把别人加的锁给解了
- 加锁和解锁必须具有原子性
Redis6新功能
ACL
Access Control List(访问控制列表),该功能允许根据可以执行的命令和可以访问的键来限制某些连接
在Redis5版本之前,Redis安全规则只有密码控制还有通过rename来调整高危命令比如flushdb、KEYS*、shutdown等。Redis6则提供ACL的功能对用户进行更细粒度的权限控制 :
- 接入权限:用户名和密码
- 可以执行的命令
- 可以操作的 KEY
- 参考官网:https://redis.io/topics/acl
命令
acl list
:命令展现用户权限列表1
2
3
4
5
6"user default on nopass ~* &* +@all"
# default:用户的用户名
# on:用户是否启用
# nopass:用户的密码(nopass:没密码)
# ~* &*:用户可操作的Key
# +@all:用户可执行的命令acl cat
:查看添加权限指令类别
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22127.0.0.1:6379> acl cat
1) "keyspace"
2) "read"
3) "write"
4) "set"
5) "sortedset"
6) "list"
7) "hash"
8) "string"
9) "bitmap"
10) "hyperloglog"
11) "geo"
12) "stream"
13) "pubsub"
14) "admin"
15) "fast"
16) "slow"
17) "blocking"
18) "dangerous"
19) "connection"
20) "transaction"
21) "scripting"加参数类型名可以查看类型下具体命令
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23127.0.0.1:6379> acl cat string
1) "get"
2) "incr"
3) "substr"
4) "decr"
5) "getrange"
6) "setnx"
7) "getex"
8) "getset"
9) "psetex"
10) "decrby"
11) "setrange"
12) "append"
13) "incrbyfloat"
14) "mset"
15) "msetnx"
16) "stralgo"
17) "incrby"
18) "strlen"
19) "set"
20) "mget"
21) "getdel"
22) "setex"
acl whoami
:查看当前用户acl setuser
:创建和编辑用户ACL- ACL规则
- 启动和禁用用户
on
:激活某用户账号off
:禁用某用户账号
- 权限的添加删除
+<command>
:将指令添加到用户可以调用的指令列表中-<command>
:从用户可执行指令列表移除指令+@<category>
:添加该类别中用户要调用的所有指令,有效类别为@admin、@set、@sortedset…等,通过调用ACL CAT命令查看完整列表。特殊类别@all表示所有命令,包括当前存在于服务器中的命令,以及将来将通过模块加载的命令-@<actegory>
:从用户可调用指令中移除类别allcommands
:+@all的别名nocommand
:-@all的别名
- 可操作键的添加或删除
~<pattern>
:添加可作为用户可操作的键的模式,例如~*允许所有的键
- 启动和禁用用户
acl setuser user2 on >password ~cached:* +get
- ACL规则
IO多线程
指客户端交互部分的网络IO交互处理模块多线程,而非执行命令多线程
Redis6执行命令依然是单线程
多线程IO默认也是不开启的,需要再配置文件中配置:
- io-threads-do-reads yes
- io-threads 4
工具支持Cluster
之前老版Redis想要搭集群需要单独安装ruby环境,Redis 5 将 redis-trib.rb 的功能集成到 redis-cli 。另外官方 redis-benchmark 工具开始支持 cluster 模式了,通过多线程的方式对多个分片进行压测
其它
RESP3新的Redis通信协议:优化服务端与客户端之间通信
Client side caching客户端缓存:基于 RESP3 协议实现的客户端缓存功能。为了进一步提升缓存的性能,将客户端经常访问的数据cache到客户端。减少TCP网络交互。
Proxy集群代理模式:Proxy 功能,让 Cluster 拥有像单实例一样的接入方式,降低大家使用cluster的门槛。不过需要注意的是代理不改变 Cluster 的功能限制,不支持的命令还是不会支持,比如跨 slot 的多Key操作。
Modules API:Redis 6中模块API开发进展非常大,因为Redis Labs为了开发复杂的功能,从一开始就用上Redis模块。Redis可以变成一个框架,利用Modules来构建不同系统,而不需要从头开始写然后还要BSD许可。Redis一开始就是一个向编写各种系统开放的平台