Loading

Redis学习笔记

目录

1.Redis常用数据类型

1.概述

1.NoSQL数据库

2.Redis概述和安装

3.Redis相关知识

2.常用五大数据类型

1.key键操作

2.String字符串

3.List列表

4.Set集合

5.Hash哈希

6.Zset有序集合

2.Redis的发布和订阅

2.1. 什么是发布和订阅

2.2Redis的发布和订阅

2.3发布订阅命令行实现

3.Redis新数据类型

1.Bitmaps

2.HyperLogLog

3.Geospatial

4.Jedis操作

1.Jedis所用jar包

2.Jedis实例

5. 事务和锁机制

1. 事务和锁机制

1. Redis的事务定义

2. Multi、Exec、discard操作

3. 事务的错误处理

4. 事务冲突问题

5. Redis事务三特性

2. Redis事务的秒杀案例

1. 加事务-乐观锁(解决超卖问题),但出现遗留库存和连接超时

2.连接池解决超时问题

3.LUA脚本解决库存遗留问题

6.Redis持久化之RDB

1.Redis持久化之RDB

1.RDB是什么

2.备份是如何执行的

3.Fork

4.RDB持久化流程

5.RDB的备份

6.优势

7.劣势

2.Redis持久化之AOF

1.AOF是什么

2.AOF持久化流程

3.AOF默认不开启

4.AOF和RDB同时开启,redis听谁的?

5.AOF启动/修复/恢复

6.Rewrite压缩

7.优势

8.劣势

9.总结

7.主从复制

1.概述

1. 是什么

2. 特点

3. 使用

2.主从复制规则

1.薪火相传

2. 反客为主

3.哨兵模式

3.主从复制原理

8.集群

1. 什么是集群

2. 搭建Redis集群

2.1 删除持久化数据

2.2 创建6个Redis实例

2.3 将6个节点合成一个集群

3. 什么是slots

4. 集群常用命令

5. 故障恢复

6.集群的Jedis开发

7.集群的优点和缺点

9.Redis缓存穿透、击穿、雪崩

1.缓存穿透

1.1 问题描述

1.2 解决方案

2.缓存击穿

2.1 问题描述

2.2 解决方案

3.缓存雪崩

3.1 问题描述

3.2 解决方案

10.Redis分布式锁

1. 问题描述

2. 使用redis实现分布式锁


学习来源:尚硅谷

1.Redis常用数据类型

1.概述

1.NoSQL数据库

1、NoSQL,指非关系型数据库,以简单的key-value模式存储,不遵循SQL标准,不支持ACID,其性能高于SQL

2、场景:用不着sql的和用了sql解决不了的,考虑用NoSQL

3、Redis是一种典型的NoSQL数据库,它一般作为缓存数据库使用,也可以是消息中间件。

2.Redis概述和安装

1、Redis支持存储多种数据类型,数据都是缓存在内存中,周期性的把更新的数据写入磁盘

2、实际使用中一般在Linux中安装,安装教程和地址:Redis 安装 | 菜鸟教程

(Windows下安装:Releases · tporadowski/redis · GitHub

3.Redis相关知识

1、Redis端口默认6379

2、Redis默认提供16个数据库,初始默认使用0号库(0~15),使用命令select <id>切换数据库且密码统一管理

3、与Memcache不同:支持多种数据类型,支持持久化,单线程+多路IO复用(买票例子)

 

2.常用五大数据类型

1.key键操作

1、Redis支持多种数据类型,包括:字符串(String),列表(List),集合(Set),哈希(Hash),有序集合(zSet)。

2、 Redis 键命令:

2.String字符串

1、简介

2、常用命令

案例:java中的i++不是原子操作

 i=0,两个线程分别对i进行++100次,值是2~200。(线程间可能会互相影响)

3、数据结构

String的数据结构为简单的动态字符串,是可以修改的字符串,类似于java的ArrayList。

3.List列表

1、 简介

单键多值

Redis列表是简单的字符串列表,按照插入顺序排序。可以添加一个元素到列表的头部(左边)或者尾部(右边)

它的底层是一个双向链表,对两端的操作性能很高。

2、常用命令

3、数据结构

List的数据结构为快速链表quickList。

4.Set集合

1、简介

Set集合可以自动排重,当需要存储一个列表数据,又不希望出现重复数据时,Set是一个很好的选择。

Redis的Set是String类型的无序集合。它底层是一个value为null的hash表,所以添加,删除,查找的复杂度都是O(1)

2、常用命令

3、数据结构

Set数据结构式dict字典,字典使用哈希表实现的。

5.Hash哈希

1、简介

Redis hash是一个string类型的fieldvalue的映射表,hash特别适合用于存储对象。类似Java里面的Map<String,Object>。存储结构如下:

 

2、常用命令

3、数据结构

Hash类型对应的数据结构是两种:ziplist(压缩列表),hashtable(哈希表)。当field-value长度较短且个数较少时,使用ziplist,否则使用hashtable。

6.Zset有序集合

1、简介

Redis有序集合zset与普通集合set非常相似,是一个没有重复元素的字符串集合。

不同之处是有序集合的每个成员都关联了一个评分(score),这个评分(score)被用来按照从最低分到最高分的方式排序集合中的成员。集合的成员是唯一的,但是评分可以是重复的

2、常用命令

3、数据结构

SortedSet(zset)是Redis提供的一个非常特别的数据结构,它等价于Java的数据结构Map<String,Double>,可以给每一个元素value赋予一个权重score,另一方面它又类似于TreeSet,内部的元素会按照权重score进行排序,可以得到每个元素的名次,还可以通过score的范围来获取元素的列表。

zset底层使用了两个数据结构:

  1. hash,hash的作用就是关联元素value和权重score,保障元素value的唯一性,可以通过元素value找到相应的score值。
  2. 跳跃表,跳跃表的目的在于给元素value排序,根据score的范围获取元素列表。

 

2.Redis的发布和订阅

2.1. 什么是发布和订阅

Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。

Redis 客户端可以订阅任意数量的频道。

2.2Redis的发布和订阅

1、客户端可以订阅频道:

2、当给这个频道发布消息后,消息就会发送给订阅的客户端:

2.3发布订阅命令行实现

1、打开第一个客户端订阅channel1

命令:subscribe channel1

2、打开另一个客户端,并给频道channel1发布消息hello

命令:publish channel1 hello

返回的1是订阅者数量

3、打开第一个客户端可以看到发送的消息

3.Redis新数据类型

1.Bitmaps

1、简介

现代计算机用二进制(位)作为信息的基础单位, 1个字节等于8位,例如“abc”字符串是由3个字节组成,但实际在计算机存储时将其用二进制表示,“abc”分别对应的ASCII码分别是97、98、99,对应的二进制分别是01100001、 01100010和01100011,如下图:

Redis提供了Bitmaps这个“数据类型”可以实现对位的操作:

  • Bitmaps本身不是一种数据类型,实际上它就是字符串(key-value),但是它可以对字符串的位进行操作。
  • 可以把Bitmaps想象成一个以位为单位的数组,数组的每个单元只能存储0和1,数组的下标在Bitmaps中叫做偏移量。

2、常用命令

  • >setbit key offset value 设置Bitmaps中某个偏移量(即下标)的值(0或1)
  • >getbit key offset 获取Bitmaps中某个偏移量的值
  • >bitcount key [start end] 统计字符串从start字节到end字节比特值为1的数量
  • >bitop and(or/not/xor) <destkey> [key…]做多个Bitmaps的操作并将结果保存在destkey中

注意:Redis的setbit设置或清除的是bit位置,而bitcount计算的是byte(字节)位置。

可以使用Bitmaps来存储网站的活跃用户

3、实例

假设:每个独立用户是否访问过网站存放在Bitmaps中,将访问的用户记做1,没有访问的用户记做0,用偏移量作为用户的id。设置键的第offset个位的值(从0算起),假设现在有20个用户,userid=1, 6, 11, 15, 19的用户对网站进行了访问,那么当前Bitmaps初始化结果如图:

  1. 2020-11-06这天第1,6, 11, 15, 19的用户对网站进行了访问。

  1. 获取id=8的用户是否在2020-11-06这天访问过,返回0说明没有访问过:

注:因为100根本不存在,所以也是返回0

  1. 计算2022-11-06这天的独立访问用户数量

  1. 计算用户id在第1个字节到第3个字节之间的独立访问用户数,对应的用户id是11, 15, 19。

  1. 2020-11-04 日访问网站的userid=1,2,5,9。2020-11-03 日访问网站的userid=0,1,4,9。计算出两天都访问过网站的用户数量(即做交集)。

  1. 计算出任意一天都访问过网站的用户数量(例如月活跃就是类似这种),可以使用or求并集

2.HyperLogLog

1、简介

  • Redis中的HyperLogLog 是用来做基数统计的算法,HyperLogLog 的优点是,在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的。它可以解决像UV(UniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题。
  • 但是,因为 HyperLogLog 只会根据输入元素来计算基数,而不会储存输入元素本身,所以 HyperLogLog 不能像集合那样,返回输入的各个元素。

补充:

  • 这种求集合中不重复元素个数的问题称为基数问题。
  • 比如数据集 {1, 3, 5, 7, 5, 7, 8},那么这个数据集的基数集为 {1, 3, 5 ,7, 8},基数(不重复元素的个数)为5。基数估计就是在误差可接受的范围内,快速计算基数。

2、命令

  • >pfadd key element [element ...] 添加指定元素到 HyperLogLog 中,可以同时添加多个
  • >pfcount key [key ...] 计算HLL的近似基数,可以计算多个HLL
  • >pfmerge destkey sourcekey [sourcekey ...] 将一个或多个HLL合并后的结果存储在另一个HLL中

3、实例

  1. 将元素添加到指定HyperLogLog数据结构中。如果添加的元素在HLL中没有重复,则返回1,否则返回0。

3.Geospatial

1、简介

GEO,Geographic,地理信息的缩写。该类型,就是元素的2维坐标,在地图上就是经纬度。Redis基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash等常见操作。

2、常用命令

  • >geoadd key longitude latitude member 添加地理位置(经度,纬度,名称)
  • >geopos key member [member...] 获得指定地区的坐标值
  • >geodist key member1 member2 [m|km|ft|mi ] 获取两个位置之间的直线距离,默认单位是米
  • >georadius key longitude latitude radius [m|km|ft|mi] 以给定的经纬度为中心找出某一半径内的元素

注意:

  • 两极(南极,北极)无法直接添加,一般会下载城市数据,直接通过 Java 程序一次性导入。
  • 有效的经度从 -180 度到 180 度。有效的纬度从 -85.05112878 度到 85.05112878 度。
  • 当坐标位置超出指定范围时,该命令将会返回一个错误。
  • 已经添加的数据,是无法再次往里面添加的。

3、实例

4.Jedis操作

1.Jedis所用jar包

<dependency>
	<groupId>redis.clients</groupId>
	<artifactId>jedis</artifactId>
	<version>3.2.0</version>
</dependency>

注意:在redis.conf中注释掉bind 127.0.0.1 ,然后 protected-mode no

//Jedis测试:

public class Demo01 {
	public static void main(String[] args) {
		Jedis jedis = new Jedis("192.168.137.3",6379); //获取连接 host,端口号
		jedis.sadd("orders", "order01"); //添加
		jedis.sadd("orders", "order02");
		Set<String> smembers = jedis.smembers("orders"); //获取value
		for (String order : smembers) {
			System.out.println(order);
		}
		jedis.srem("orders", "order02"); //删除
	}
}
 

2.Jedis实例

2.1. 完成一个手机验证码功能

1、输入手机号,点击发送后随机生成6位数字码,2分钟有效

2、输入验证码,点击验证,返回成功或失败

3、每个手机号每天只能输入3次

5. 事务和锁机制

1. 事务和锁机制

1. Redis的事务定义

  • Redis事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中不会被其他客户端发送来的命令请求所打断。
  • Redis事务的主要作用就是串联多个命令防止别的命令插队。

2. Multi、Exec、discard操作

  • 从输入Multi命令开始,输入的命令都会依次进入命令队列中,但不会执行,直到输入Exec后,Redis会将之前的命令队列中的命令依次执行。
  • 组队的过程中可以通过discard来放弃组队。

例子:

  1. 组队成功,提交成功

  1. 组队阶段报错,提交失败

  1. 组队成功,提交过程有命令报错

3. 事务的错误处理

  1. 组队阶段某个命令出现了报错,执行时整个的所有队列都会被取消。
  2. 执行阶段某个命令出现了报错,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚。

4. 事务冲突问题

例子:

1、有很多人有你的账户,同时去参加双十一抢购

一个请求想给金额减8000

一个请求想给金额减5000

一个请求想给金额减1000

1、悲观锁

悲观锁(Pessimistic Lock), 顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁。传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁,换句话说:在操作之前先上锁,操作完之后再解锁。

2、乐观锁

乐观锁(Optimistic Lock), 顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。Redis就是利用这种check-and-set机制实现事务的。

3、WATCH key [key...]

  • 在执行multi之前,先执行watch key1 [key2],可以监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。

4、unwatch

  • 取消WATCH命令对所有key 的监视。
  • 如果执行WATCH命令之后,EXEC命令或DISCARD命令先被执行了的话,那么就不需要再执行UNWATCH了

5. Redis事务三特性

  1. 单独的隔离操作
  • 事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。
  1. 没有隔离级别的概念
  • 队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行
  1. 不保证原子性
  • 事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚

2. Redis事务的秒杀案例

1. 加事务-乐观锁(解决超卖问题),但出现遗留库存和连接超时

//增加乐观锁
jedis.watch(qtkey);
 
//3.判断库存
String qtkeystr = jedis.get(qtkey);
if(qtkeystr==null || "".equals(qtkeystr.trim())) {
System.out.println("未初始化库存");
jedis.close();
return false ;
}
 
int qt = Integer.parseInt(qtkeystr);
if(qt<=0) {
System.err.println("已经秒光");
jedis.close();
return false;
}
 
//增加事务,即组队
Transaction multi = jedis.multi();
 
//4.减少库存
multi.decr(qtkey);
 
//5.加入
multi.sadd(usrkey, uid);
 
//执行事务
List<Object> list = multi.exec();
 
//判断事务提交是否失败
if(list==null || list.size()==0) {
	System.out.println("秒杀失败");
	jedis.close();
return false;
}
System.err.println("秒杀成功");
jedis.close();

库存遗留原因,就是乐观锁导致很多请求都失败。先点的没秒到,后点的可能秒到了。

2.连接池解决超时问题

节省每次连接redis服务带来的消耗,把连接好的实例反复利用。

通过参数管理连接的行为

  • 链接池参数
    • MaxTotal:控制一个pool可分配多少个jedis实例,通过pool.getResource()来获取;如果赋值为-1,则表示不限制;如果pool已经分配了MaxTotal个jedis实例,则此时pool的状态为exhausted。
    • maxIdle:控制一个pool最多有多少个状态为idle(空闲)的jedis实例;
    • MaxWaitMillis:表示当borrow一个jedis实例时,最大的等待毫秒数,如果超过等待时间,则直接抛JedisConnectionException;
    • testOnBorrow:获得一个jedis实例的时候是否检查连接可用性(ping());如果为true,则得到的jedis实例均是可用的;

3.LUA脚本解决库存遗留问题

关于LUA脚本:

Lua 是一个小巧的脚本语言,Lua脚本可以很容易的被C/C++ 代码调用,也可以反过来调用C/C++的函数,Lua并没有提供强大的库,一个完整的Lua解释器不过200k,所以Lua不适合作为开发独立应用程序的语言,而是作为嵌入式脚本语言。

很多应用程序、游戏使用LUA作为自己的嵌入式脚本语言,以此来实现可配置性、可扩展性。

这其中包括魔兽争霸地图、魔兽世界、博德之门、愤怒的小鸟等众多游戏插件或外挂。

Lua 教程_w3cschool

local userid=KEYS[1]; 
local prodid=KEYS[2];
local qtkey="sk:"..prodid..":qt";
local usersKey="sk:"..prodid.":usr'; 
local userExists=redis.call("sismember",usersKey,userid);
if tonumber(userExists)==1 then 
  return 2;
end
local num= redis.call("get" ,qtkey);
if tonumber(num)<=0 then 
  return 0; 
else 
  redis.call("decr",qtkey);
  redis.call("sadd",usersKey,userid);
end
return 1;

6.Redis持久化之RDB

1.Redis持久化之RDB

1.RDB是什么

Redis 提供了2个不同形式的持久化方式:

  • RDB(Redis DataBase)
  • AOF(Append Of File)

2.备份是如何执行的

Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失

3.Fork

  • Fork的作用是复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等)数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程。
  • 在Linux程序中,fork()会产生一个和父进程完全相同的子进程,但子进程在此后多会exec系统调用,出于效率考虑,Linux中引入了“写时复制技术”。

4.RDB持久化流程

dump.rdb文件:在redis.conf中配置文件名称,默认为dump.rdb

5.RDB的备份

先通过config get dir 查询rdb文件的目录

将*.rdb的文件拷贝到别的地方

rdb的恢复:

  • 关闭Redis
  • 先把备份的文件拷贝到工作目录下 cp dump2.rdb dump.rdb
  • 启动Redis, 备份数据会直接加载

6.优势

  • 适合大规模的数据恢复
  • 对数据完整性和一致性要求不高更适合使用
  • 节省磁盘空间
  • 恢复速度快

7.劣势

  • Fork的时候,内存中的数据被克隆了一份,大致2倍的膨胀性需要考虑
  • 虽然Redis在fork时使用了写时拷贝技术,但是如果数据庞大时还是比较消耗性能。
  • 在备份周期在一定间隔时间做一次备份,所以如果Redis意外down掉的话,就会丢失最后一次快照后的所有修改。

2.Redis持久化之AOF

1.AOF是什么

以日志的形式来记录每个写操作(增量保存),将Redis执行过的所有写指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作。

2.AOF持久化流程

(1)客户端的请求写命令会被append追加到AOF缓冲区内;

(2)AOF缓冲区根据AOF持久化策略[always,everysec,no]将操作sync同步到磁盘的AOF文件中;

(3)AOF文件大小超过重写策略或手动重写时,会对AOF文件rewrite重写,压缩AOF文件容量;

(4)Redis服务重启时,会重新load加载AOF文件中的写操作达到数据恢复的目的;

3.AOF默认不开启

可以在redis.conf中配置文件名称,默认为appendonly.aof。AOF文件的保存路径,同RDB的路径一致。

4.AOF和RDB同时开启,redis听谁的?

AOF和RDB同时开启,系统默认取AOF的数据(数据不会存在丢失)

5.AOF启动/修复/恢复

  • AOF的备份机制和性能虽然和RDB不同, 但是备份和恢复的操作同RDB一样,都是拷贝备份文件,需要恢复时再拷贝到Redis工作目录下,启动系统即加载。
  • 正常恢复
    • 修改默认的appendonly no,改为yes
    • 将有数据的aof文件复制一份保存到对应目录(查看目录:config get dir)
    • 恢复:重启redis然后重新加载
  • 异常恢复
    • 修改默认的appendonly no,改为yes
    • 如遇到AOF文件损坏,通过/usr/local/bin/redis-check-aof --fix appendonly.aof进行恢复
    • 备份被写坏的AOF文件
    • 恢复:重启redis,然后重新加载

6.Rewrite压缩

AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制。当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩,只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof。

触发机制,何时重写:

Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发。重写虽然可以节约大量磁盘空间,减少恢复时间。但是每次重写还是有一定的负担的,因此设定Redis要满足一定条件才会进行重写。

7.优势

  • 备份机制更稳健,丢失数据概率更低。
  • 可读的日志文本,通过操作AOF稳健,可以处理误操作。

8.劣势

  • 比起RDB占用更多的磁盘空间。
  • 恢复备份速度要慢。
  • 每次读写都同步的话,有一定的性能压力。
  • 存在个别Bug,造成恢复不能。

9.总结

官方推荐两个都启用。

如果对数据不敏感(即不担心数据丢失),可以选单独用RDB。

不建议单独用 AOF,因为可能会出现Bug。

如果只是做纯内存缓存,可以都不用。

7.主从复制

1.概述

1. 是什么

主机数据更新后根据配置和策略,自动同步到备机的master/slaver机制,Master以写为主,Slave以读为主

2. 特点

  • 读写分离,性能扩展
  • 容灾快速恢复

3. 使用

1、创建一个文件夹/myredis

2、将redis.conf配置文件复制一份到myredis文件夹下

3、创建主从配置文件,配置一主两从,例如redis6379.conf,redis6380.conf,redis6381.conf

  • 注意先将redis.conf中的appendonly yes改为no,即关闭AOF

4、在配置文件中填写以下内容:

include /myredis/redis.conf			//引入redis.conf配置文件
pidfile /var/run/redis_6379.pid	    //该配置文件的pid
port 6379							//指定端口
dbfilename dump6379.rdb				//rdb文件名

5、启动三台Redis服务器

6、连接Redis,命令:redis-cli -p 端口号

7、查看三台服务器运行情况,命令:info replication 打印主从复制的相关信息

8、配从(库)不配主(库)

在从服务器中使用命令:slaveof <ip><port> 成为某个实例的从服务器

当主机宕机后,从机会原地待命,当主机重启后,从机会继续进行同步复制。

当从机宕机了再重启后,它将不再是某个实例的从机,需要重新设置。

2.主从复制规则

1.薪火相传

上一个Slave可以是下一个slave的Master,Slave同样可以接收其他slaves的连接和同步请求,那么该slave作为了链条中下一个的master, 可以有效减轻master的写压力,去中心化降低风险。

使用命令:slaveof <ip><port>

风险:是一旦某个slave宕机,后面的slave都没法备份

2. 反客为主

当一个master宕机后,后面的slave可以立刻升为master,其后面的slave不用做任何修改。

使用命令:slaveof no one 将从机变为主机。

3.哨兵模式

哨兵模式是反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库

1、使用步骤

  1. 调整为一主二仆模式,6379带着6380、6381
  2. 在自定义的/myredis目录下新建sentinel.conf文件,名字绝不能错
  3. 在sentinel.conf配置文件中,填写内容:sentinel monitor mymaster 127.0.0.1 6379 1。其中mymaster为监控对象起的服务器名称,1 为至少有多少个哨兵同意迁移的数量。
  4. 启动哨兵,使用命令:redis-sentinel /myredis/sentinel.conf
  5. 当主机挂掉后,会选取某个从机成为新的主机,并且原主机重启后会变为从机。

2、故障恢复

哪个从机会被选取为主机?

  • 优先级在redis.conf中默认:replica-priority 100,值越小优先级越高
  • 偏移量是指获得原主机数据最全的
  • 每个redis实例启动后都会随机生成一个40位的runid

3.主从复制原理

1、当从服务器启动成功连接到主服务器后,会向主服务器发送一个数据同步消息

2、主服务器接受到消息后,先将主服务器的数据进行持久化,放到RDB文件中,然后把RDB文件发送到从服务器,从服务器接收到RDB文件进行读取(全量复制)

3、主服务器每次更新数据后,会向从服务器进行数据同步(增量复制)

8.集群

1. 什么是集群

Redis 集群实现了对Redis的水平扩容,即启动N个redis节点,将整个数据库分布存储在这N个节点中,每个节点存储总数据的1/N。(无中心化集群配置)

Redis 集群通过分区(partition)来提供一定程度的可用性(availability):即使集群中有一部分节点失效或者无法进行通讯,集群也可以继续处理命令请求。

2. 搭建Redis集群

2.1 删除持久化数据

将rdb,aof文件都删除掉。

2.2 创建6个Redis实例

1、配置基本信息,例如:修改redis6379.conf配置文件

  • include /myredis/redis.conf
  • pidfile /var/run/redis_6379.pid
  • port 6379
  • dbfilename dump6379.rdb

2、添加redis cluster配置

  • cluster-enabled yes 打开集群模式
  • cluster-config-file nodes-6379.conf 设定节点配置文件名
  • cluster-node-timeout 15000 设定节点失联时间,超过该时间(毫秒),集群自动进行主从切换。

3、修改好redis6379.conf文件后,进行拷贝多个配置文件redisxxxx.conf。

4、对每个配置文件进行修改,修改对应的端口号

  • 使用命令 :%s/6379/6380

5、启动6个Redis服务

2.3 将6个节点合成一个集群

组合之前,请确保所有redis实例启动后,nodes-xxxx.conf文件都生成正常。

1、合成步骤:

  1. cd /opt/redis-6.2.1/src
  1. redis-cli --cluster create --cluster-replicas 1 192.168.11.101:6379 192.168.11.101:6380 192.168.11.101:6381 192.168.11.101:6389 192.168.11.101:6390 192.168.11.101:6391

此处不要用127.0.0.1,请用真实IP地址

这里的--replicas 1 表示采用最简单的方式配置集群,一台主机有一台从机,正好三组。

  • Redis普通连接:redis-cli -p 6379
  • Redis集群连接:redis-cli -c -p 6379
  • 通过 cluster nodes 命令查看集群信息

2、redis cluster 如何分配这六个节点?

  • 一个集群至少要有三个主节点。
  • 选项--cluster-replicas 1 表示我们希望为集群中的每个主节点创建一个从节点。
  • 分配原则:尽量保证每个主数据库运行在不同的IP地址,每个从库和主库不在一个IP地址上。

3. 什么是slots

[OK] All nodes agree about slots configuration.

>>> Check for open slots...

>>> Check slots coverage...

[OK] All 16384 slots covered.

一个 Redis 集群包含16384 个插槽(hash slot),数据库中的每个key都属于这16384 个插槽的其中一个。

集群使用公式CRC16(key) % 16384 来计算键key 属于哪个槽,其中CRC16(key) 语句用于计算键key 的CRC16 校验和。

集群中的每个节点负责处理一部分插槽,这里就对应了一开始说的集群中的每个节点存储总数据的1/N。

举个例子,如果一个集群有3个主节点,其中:

  • 节点 A 负责处理0号至5460号插槽。
  • 节点 B 负责处理5461号至10922号插槽。
  • 节点 C 负责处理10923号至16383号插槽。

4. 集群常用命令

1、在集群中录入值

  • >set key value 集群会根据公式去计算该key属于哪个插槽,然后进入对应的节点。
  • >mset k1 v1 k2 v2... 若进行多键操作,可以通过{}来定义组,使key中{}内相同内容的键值对放到一个slot中

2、查询集群中的值

  • >cluster keyslot key 查询key对应的插槽
  • >cluster countkeysinslot 查询插槽中的key的数量
  • >cluster getkeysinslot slot count 查询count个slot槽中的键

3、cluster nodes 命令查看集群信息

5. 故障恢复

1、如果主节点下线,从节点可以自动升为主节点。注意:15秒超时

2、主节点恢复后,会变成对应的从机。

3、如果某一段插槽的所有主从节点都宕掉,redis服务是否还能继续?

  • cluster-require-full-coverage 为yes ,那么,整个集群都挂掉。
  • cluster-require-full-coverage 为no ,那么,其他集群还能继续提供服务。

redis.conf中的参数:cluster-require-full-coverage

6.集群的Jedis开发

无中心化主从集群。无论从哪台主机写的数据,其他主机上都能读到数据。

public class JedisClusterTest {
  public static void main(String[] args) { 
     Set<HostAndPort>set =new HashSet<HostAndPort>();
     set.add(new HostAndPort("192.168.31.211",6379));
     JedisCluster jedisCluster=new JedisCluster(set);
     jedisCluster.set("k1", "v1");
     System.out.println(jedisCluster.get("k1"));
  }
}

7.集群的优点和缺点

1、优点

  • 实现扩容
  • 并发写操作时,分摊压力
  • 无中心化配置相对简单

2、缺点

  • 多键操作是不被支持的,需要组的概念
  • 多键的Redis事务是不被支持的。lua脚本不被支持

9.Redis缓存穿透、击穿、雪崩

1.缓存穿透

1.1 问题描述

  • key对应的数据在数据库中并不存在,每次针对此key的请求从缓存获取不到,请求都会压到数据库,从而可能压垮数据库。比如用一个不存在的用户id获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库。

1.2 解决方案

一个一定不存在缓存及查询不到的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。

解决方案:

(1) 对空值缓存:如果一个查询返回的数据为空(不管是数据是否不存在),我们仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟

(2) 设置可访问的名单(白名单):

使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果访问id不在bitmaps里面,进行拦截,不允许访问。

(3) 采用布隆过滤器:(布隆过滤器(Bloom Filter)是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)。

布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。)

将所有可能存在的数据哈希到一个足够大的bitmaps中,一个一定不存在的数据会被这个bitmaps拦截掉,从而避免了对底层存储系统的查询压力。

(4) 进行实时监控:当发现Redis的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务

2.缓存击穿

2.1 问题描述

当key对应的数据存在,但在redis中某个key过期了,此时若有大量查询某个key的并发请求过来,这些请求发现缓存过期一般都会从数据库加载数据并回设到缓存,这个时候数据库的访问量瞬时增加,导致数据库崩溃。

2.2 解决方案

key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:缓存被“击穿”的问题。

解决问题:

1)预先设置热门数据:在redis高峰访问之前,把一些热门数据提前存入到redis里面,加大这些热门数据key的时长

2)实时调整:现场监控哪些数据热门,实时调整key的过期时长

3)使用锁:

    1. 就是在缓存失效的时候(判断拿出来的值为空),不是立即去load db。
    2. 先使用缓存工具的某些带成功操作返回值的操作(比如Redis的SETNX)去set一个mutex key
    3. 当操作返回成功时,再进行load db的操作,并回设缓存,最后删除mutex key;
    4. 当操作返回失败,证明有线程在load db,当前线程睡眠一段时间再重试整个get缓存的方法。

3.缓存雪崩

3.1 问题描述

key对应的数据存在,但在redis中key过期了,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从数据库加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把数据库压垮。

缓存雪崩与缓存击穿的区别在于这里的缓存中的大量key过期了。

3.2 解决方案

缓存失效时的雪崩效应对底层系统的冲击非常可怕!

解决方案:

(1) 构建多级缓存架构:nginx缓存 + redis缓存 +其他缓存(ehcache等)

(2) 使用锁或队列:

  • 用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况

(3) 设置过期标志更新缓存:

  • 记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际key的缓存。

(4) 将缓存失效时间分散开:

  • 比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。

10.Redis分布式锁

1. 问题描述

1、随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多进程并且分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的Java API并不能提供分布式锁的能力。为了解决这个问题就需要一种跨JVM的互斥机制来控制共享资源的访问,这就是分布式锁要解决的问题。

2、分布式锁主流的实现方案:

  • 基于数据库实现分布式锁
  • 基于缓存(Redis等)
  • 基于Zookeeper

3、每一种分布式锁解决方案都有各自的优缺点:

  • 性能:redis最高
  • 可靠性:zookeeper最高

2. 使用redis实现分布式锁

1、优化之设置锁的过期时间

使用命令:>set k1 v1 nx ex 10 给k1上锁并设置过期时间为10s

>del k1 释放锁

1. 多个客户端同时获取锁(setnx)

2. 获取成功,执行业务逻辑{从db获取数据,放入缓存},执行完成释放锁(del)

3. 其他客户端等待重试

2、优化之UUID防误删

当获取锁时,设置一个指定的唯一值(例如:uuid);释放前获取这个值,判断是否是自己的锁

3、优化之LUA脚本保证删除的原子性

解决删除锁时缺乏的原子性

@GetMapping("testLockLua")
public void testLockLua() {
    //1 声明一个uuid ,将做为一个value 放入我们的key所对应的值中
    String uuid = UUID.randomUUID().toString();
    //2 定义一个锁:lua 脚本可以使用同一把锁,来实现删除!
    String skuId = "25"; // 访问skuId 为25号的商品 100008348542
    locKey = "lock:" + skuId; // 锁住的是每个商品的数据
    // 3 获取锁
    Boolean lock = redisTemplate.opsForValue().setIfAbsent(locKey, uuid, 3, TimeUnit.SECONDS);

    // 第一种: lock 与过期时间中间不写任何的代码。
    // redisTemplate.expire("lock",10, TimeUnit.SECONDS);//设置过期时间
    // 如果true
    if (lock) {
        // 执行的业务逻辑开始
        // 获取缓存中的num 数据
        Object value = redisTemplate.opsForValue().get("num");
        // 如果是空直接返回
        if (StringUtils.isEmpty(value)) {
            return;
        }
        // 不是空 如果说在这出现了异常! 那么delete 就删除失败! 也就是说锁永远存在!
        int num = Integer.parseInt(value + "");
        // 使num 每次+1 放入缓存
        redisTemplate.opsForValue().set("num", String.valueOf(++num));
        /*使用lua脚本来锁*/
        // 定义lua 脚本
        String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
        // 使用redis执行lua执行
        DefaultRedisScript<Long> redisScript = new DefaultRedisScript<>();
        redisScript.setScriptText(script);
        // 设置一下返回值类型 为Long
        // 因为删除判断的时候,返回的0,给其封装为数据类型。如果不封装那么默认返回String 类型,
        // 那么返回字符串与0 会有发生错误。
        redisScript.setResultType(Long.class);
        // 第一个要是script 脚本 ,第二个需要判断的key,第三个就是key所对应的值。
        redisTemplate.execute(redisScript, Arrays.asList(locKey), uuid);
    } else {
        // 其他线程等待
        try {
            // 睡眠
            Thread.sleep(1000);
            // 睡醒了之后,调用方法。
            testLockLua();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}

4、总结

  1. 加锁
// 1. 从redis中获取锁,set k1 v1 px 20000 nx
String uuid = UUID.randomUUID().toString();
Boolean lock = this.redisTemplate.opsForValue()
      .setIfAbsent("lock", uuid, 2, TimeUnit.SECONDS);
  1. 使用LUA脚本释放锁
// 2. 释放锁 del
String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
// 设置lua脚本返回的数据类型
DefaultRedisScript<Long> redisScript = new DefaultRedisScript<>();
// 设置lua脚本返回类型为Long
redisScript.setResultType(Long.class);
redisScript.setScriptText(script);
redisTemplate.execute(redisScript, Arrays.asList("lock"),uuid);
  1. 其他客户端重试获取锁
Thread.sleep(500);
testLock();

为了确保分布式锁可用,我们至少要确保锁的实现同时满足以下四个条件

  • 互斥性。在任意时刻,只有一个客户端能持有锁。
  • 不会发生死锁。即使有一个客户端在持有锁的期间崩溃而没有主动解锁,也能保证后续其他客户端能加锁
  • 解铃还须系铃人。加锁和解锁必须是同一个客户端,客户端自己不能把别人加的锁给解了。
  • 加锁和解锁必须具有原子性。
posted @ 2022-10-26 20:14  爱吃番茄jiang  阅读(33)  评论(0)    收藏  举报