Redis
Redis概述
1.Redis是一个开源的key-value存储系统
2.和Memcached类似,它支持存储的value类型相对更多,包括String(字符串)、List(链表)、Set(集合)、zset(sorted set --有序集合)和hash(哈希类型)
3.这些数据类型都支持 push/pop、add/remove及取交集并集和差集及更丰富的操作。而且这些操作都是原子性的
4.在此基础上Redis支持各种不同方式的排序
5.与memcached一样,为了保证效率,数据都是缓存在内存种
6.区别是Redis会把周期性的把更新的数据写入磁盘或者把修改操作追加到记录文件
7.并且在此基础上实现了master-slave(主从)同步
应用场景
配合关系型数据库做高速缓存
高频次,热门访问的数据,降低数据库IO
分布式架构,做session共享
多样的数据结构存储持久化数据
Redis安装
在Linux系统上安装
准备工作:下载安装最新版的gcc编译器
安装C语言的编译环境
yum install centos-release-scl scl-utils-build
yum install -y devtoolset-8-toolchain
scl enable devtoolset-8 bash
测试Gcc版本
gcc --version
下载redis-6.2.1.tar.gz放/opt目录
解压命令:tar -zxvf redis-6.2.1.tar.gz
解压完成后进入目录:cd redis-6.2.1
在redis-6.2.1目录下再次执行make命令(只是编译好)
如果没有准备好C语言编译环境,make会报错
-Jemalloc/jemalloc.h:没有那个文件
解决方案运行 make distclean
在redis-6.2.1目录下再次执行make命令(只是编译好的)
跳过make test 继续执行 :make install
安装目录:/user/local/bin
查看默认安装目录:
redis-benchmark:性能测试工具
redis-check-aof:修复有问题的AOF文件
redis-check-dump:修复有问题的dump.rdb文件
redis-sentinel:Redis集群使用
redis-server:Redis服务器启动命令
redis-cli:客户端,操作入口
前台启动(不推荐)
前台启动,命令行窗口不能关闭,否则服务器停止
后台启动(推荐)
备份redis.conf
拷贝一份redis.conf到其他目录
cp /opt/redis-3.2.5/redis.conf /myredis
后台启动设置daemonize no 改成 yes
修改redis.conf文件里面的daemonize no改成yes,让服务在后台启动
Redis启动
redis-server/myredis/redis.conf
用客户端访问:redis-cli
多个端口可以:redis-cli -p6379
测试验证:ping
Redis关闭
单实例关闭:redis-cli shutdown
也可以进入终端后再关闭
多实例关闭,指定端口关闭:redis-cli -p 6379 shutdown
Redis相关知识
默认16个数据库,类似数组下标从0开始,初始默认使用0号库
使用命令select 来切换数据库。如:select 1
统一密码管理,所有库同样密码
dbsize查看当前数据库的key的数量
flushdb 清空当前库
flushall 通杀全部库
Redis是单线程+多路IO复用技术
与Memcache三点不同:支持多数据类型,支持持久化,单线程+多路IO复用
常用五大数据类型
Redis键(Key)
keys *查看当前库的所有key
exists kry 判断某个key是否存在
type key 查看你的key是什么类型
delkey 删除指定的key
unlink key 根据value选择非阻塞删除
仅将key从keyspace元数据种删除,真正的删除在异步操作
expire key10 10秒钟:为给定的key设置过期时间
ttl key查看还有多少秒过期,-1表示永不过期,-2表示已过期
select命令切换数据库
desize查看当前数据库的key的数量
flushdb 清空当前库
flushall 通杀全部库
Redis字符串(String)
简介
String是Redis最基本的类型,可以理解成与Memcached一模一样的类型,一个key对应一个value
String类型是二进制安全的。意味着Redis的String可以包含任何数据。比如jpg图片或序列化的对象
String类型是Redis最基本的数据类型,一个Redis中字符串value最多可以是512M
常用命令
常用命令
set key value 添加键值对
get key 查询对应键值
append key value 将给定的value追加到原值的末尾
strlen key 获得值的长度
setnx key value 只有在key不存在时 设置key的值
incr key
将key 中存储的数字增值1
只能对数字值操作,如果为空,新增值为1
decr key
将key中存储的数字值减1
只能对数字值操作,如果为空,新增值为-1
incrby/decrby key <步长>将key中存储的数字值增减,自定义步长
mset key1 value1 key2 value2....
同时设置一个或多个key-value
mget key1 key2 key3
同时获取一个或多个value
msetnx key1 value1 key2 value2
同时设置一个或多个key-value对,当且仅当所有给定的key都不存在
原子性,有一个失败则都失败
getrange key<起始位置><结束位置>
获得值的范围,类似java中的substring ,前包,后包
setrange key <起始位置> value
用value覆写key所存储的字符串值,从起始位置开始(索引从0开始)
setex key <过期时间> value
设置键值的同时,设置过期时间,单位秒
getset key value
以新换,设置了新值同时获得旧值
数据结构
String的数据结构为简单动态字符串(Simple Dynamic String,缩写SDS)。是可以修改的字符串,内部结构实现上类似于Java的ArrayList,采用预分配冗余空间的方式来减少频繁的分配
redis列表(List)
单键多值
Redis列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素到列表的头部(左边)或者尾部(右边)
他的底层实际上是一个双向链表,对两端的操作性能很高,通过索引下标操作中间的节点性能会较差
常用命令
lpush/rpush key value1 value2 value3...从左边/右边插入一个或多个值
lpop/rpop key从左边/右边吐出一个值,值在键在,值光键亡
rpoplpush key1 key2 从key1列表右边取出一个值,插到key2列表左边
lrange key start stop 按照索引下标获取元素(从左到右)
lrange mylist 0-1 0左边第一个,-1右边第一个,(0 -1表示获取所有)
lindex key index 按照索引下标获得元素
llen key获得列表长度
linsert key before value newvalue 在value 后面插入newvalue插入值
lrem key n value从左边删除n个value(从左到右)
lset key index value将列表key下标为index的值替换成value
数据结构
List的数据结构为快速链表quickList
首先在列表元素较少的情况下会使用一块连续的内存储存,这个结构是ziplist,即 压缩列表
Redis集合(Set)
简介
Redis set对外提供的功能与list相似,是一个列表的功能,特殊之处在于set是可以自动重排的,当你需要存储一个列表数据,又不希望出现重复数据时,set是一个很好的选择
Redis的set是String类型的无序集合,它底层其实是一个value为null的hash表,所以添加,删除,查找的复杂度都是O(1)
常用命令
sadd key value1 value2
将一个或多个member元素加入到集合的key中,已经存在member元素将被忽略
smembers key 取出该集合的所有值
sismember key value 判断集合key是否为含有改value的值,有1,没有0
scard key 返回该集合的元素个数
srem key value1 value2 ...删除集合中的某个元素
spop key 随机从该集合中吐出一个值
srandmember key n 随即从该集合中取出n个值。不会从集合中删除
smove source destination value 把集合中一个值移动到另一个集合
sinter key1 key2 返回两个集合的交集元素
sunion key1 key2 返回两个集合的并集元素
sdiff key1 key2 返回两个集合的差集元素(key1中的,不包含key2中的)
数据结构
Set数据结构是dist字典,字典是用hash表实现的
Redis的set结构内部实现使用的是HashMap,所有的value都指向同一个内部值
Redis哈希
简介
Redis hash 是一个键值对集合
Redis hash是一个String类型的field 和 value 的映射表,hash特别适用于存储对象
用户id为查找的key,存储的value用户对象包括姓名,年龄,生日等信息,普通key/value结构存储
两种存储方式
常用命令
hset key field value 给key集合中的 field 赋值给 value
hget key field 从key1集合中取出field 取出value
hmset key1 field1 value1 field2 value2...设置批量的hash值
hexists key field 查看hash表key中,给定域的field是否存在
hkeys key列出该hash集合的所有field
hvalue value 列出该hash结合所有的value
hincrby key field increment 为哈希表key中的域 field 的值加上增量 +1 -1
hsetnx key field value 将哈希表key中的域field的值设置为value ,当且仅当域field不存在
数据结构
Hash类型对应的数据结构是两种:ziplist(压缩列表),hashtable(哈希表),当field-value长度较短且个数较少时,使用ziplist,否则使用hashtable
Redis有序集合Zset
Redis有序集合zset与普通集合set非常相似,是一个没用重复元素的字符串集合
不同之处:集合的成员是唯一的,但是评分是可以重复的
常用命令
zadd key score1 value1 score2 value2...
将一个或多个member元素及其score值加入到有序集合key当中
zrange key start stop 【withscores】
返回有序集合key中,下标在start stop之间的元素
带withscores,可以让分数和值一起返回到结果集
zrangebyscore key minmax 【withscores】 【limit offset count】
返回有序集key中,所有score值介于min和max之间(包括min和max)的成员
zrevrangebyscore key maxmin【withscores】 【limit offset count】
同上,改为从大到小排序
zincrby key increment value 为元素的score加上增量
zrem key value 删除该集合下,指定值的元素
如何利用zset实现一个文章访问量的排行版榜?
数据结构
SoredSet(zset)等价于Map<String,double>,
zset底层使用了两个数据结构
1.hash,hash的作用就是关联元素value和权重score,保障元素value的唯一性,可以通过元素value找到相应的score值
2.跳跃表,跳跃表的目的在于给元素value排序,根据score的范围获取元素列表
跳跃表
有序集合在生活中比较常见,例如根据成绩对学生排名,根据得分对玩家排名等。对于有序集合的底层实现,可以用数组、平衡树、链表等,数组不便元素的插入、删除;平衡树或红黑树虽然效率高但结构复杂;链表查询需要遍历(效率低),Redis采用的是跳跃表,堪比红黑树,实现远比红黑树简单
Redis发布和订阅
什么是发布和订阅
Redis发布和订阅(pub/sub)是一种消息通信模式,发送者(pub)发送消息,订阅者(sub)接收消息
Redis客户端可以订阅任意数量的频道
发布订阅命令行实现
1.打开一个客户端订阅 channel1
SUBSCRIBE channel1
2.打开另一个客户端,给channel1发布消息hello
publish channel1 hello
返回的1是订阅者的数量
3.打开第一个客户端可以看到发送的消息
注:发布的消息没有持久化,如果在订阅的客户端收不到hello,只能收到订阅后发布的消息
Redis新数据类型
Bitmaps
简介
现代计算机用二进制位,作为信息的基本单位,一个字节等于8位,例如“abc”字符串是由3个字节组成,但实际在计算机存储时将其用二进制,“abc”对应的ASCLL码分别是97、98、99,对应的二进制分别是01100001、01100010和01100011
合理的使用操作位能够有效的提高内存的使用率和开发效率
Redis提供了Bitmaps这个数据类型,可以实现对位的操作
1)Bitmaps本身不是一种数据类型,实际上他就是字符串(key-value),但是他可以对字符串进行位操作
2)Bitmaps单独提供了一套命令,所以在Redis中使用Bitmaps和使用字符串的方法不太相同,可以把Bitmaps想象成一个以位为单位的数组,数组的每个单元只存储0和1,数组的下标在Bitmaps中叫做偏移量
命令
1.setbit
格式:setbit key offset value 设置Bitmaps中某个偏移量的值(0或1)
offset:偏移量从0开始
注意:
很多应用的用户id以一个指定的数字开头,直接将用户id和Bitmaps的偏移量势必会造成一定的浪费,通常的做法是每次做setbit操作将用户id减去这个指定数字
在第一次初始化Bitmaps时,假如偏移量非常大,那么整个初始化过程执行会比较慢,可能会造成Redis的阻塞
getbit
1)格式
getbit key offset 获取Bitmaps中某个偏移量的值
获取键的第offset位的值(从0开始算)
2)实例
获取id=8的用户是否在2020-11-06这天访问过,返回0说明没有访问过
3.bitcount
统计字符串被设置位1的bit数。一般情况下,给定的字符串都会被进行计数,通过指定额外的start或end参数,可以让计数只在特定的位上进行。start和end参数,可以让计数只在特定的位上运行,start和end参数的设置,都可以使用负数值,:比如-1表示最后一个位,而-2表示倒数第二位,start、end是指bit组的字节的的下标数,二者皆包含
1)格式
bitcount key 【start end】统计字符串从start 字节到 end字节比特值为1的数量
注意:redis的setbit设置或清除的是bit的位置,而bitcount计算的是byte的位置
4.bitop
格式
bitop and(or/not/xor) destkey [key]
bitop是一个复合操作,它可以做多个Bitmaps的and(交集)、or(并集)、not(非)、xor(异或)操作并将结果保存在destkey中
计算出两天都访问过网站的用户数量
Bitmaps与set对比
HyperLogLog
简介
在工作当中,我们经常会遇到与统计相关的功能需求,比如统计网站PV(PageView页面访问量),可以使用Redis的incr、incrby 轻松实现。但像UV ( UniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题如何解决?这种求集合中不重复元素个数的问题称为基数问题。
解决基数问题有很多种方案:
( 1 )数据存储在MySQL表中,使用distinct count 计算不重复个数
( 2)使用Redis提供的 hash、set、bitmaps等数据结构来处理
以上的方案结果精确,但随着数据不断增加,导致占用空间越来越大,对于非常大的数据集是不切实际的。
能否能够降低一定的精度来平衡存储空间?Redis推出了HyperLogLog
Redis HyperLogLog是用来做基数统计的算法,HyperLogLog 的优点是,在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的。
在Redis里面,每个HyperLogLog键只需要花费12KB内
存,就可以计算接近2^64个不同元素的基数。这和计算基数时,元素越多耗费内存就越多的集合形成鲜明对比。
但是,因为 HyperLogLog只会根据输入元素来计算基数,而不会储存输入元素本身,所以 HyperLogLog不能像集合那样,返回输入的各个元素。
什么是基数?
比如数据集{1,3,5,7,5,7,8},那么这个数据集的基数集为{1,3,5 ,7,8},基数(不重复元素)为5。基数估计就是在误差可接受的范围内,快速计算基数。
命令
1.pfadd
1)格式
pfadd key element 【element】 添加指定元素到HyperLogLog中
2)实例
将所有元素添加到指定HyperLogLog数据结构中。如果执行命令后HLL估计的近似基数发生变化,则返回1,否则返回0
2.pfcount
1)格式
pfcount key 【key...】计算HLL的近似基数,可以计算多个HLL,比如用HLL存储每天的UV,计算一周的UV可以使用七天的UV合并计算即可
2)实例
3.pfmerge
1)格式
pfmerge destkey sourcekey sourcekty...将一个或多个HLL合并后的结果存储在另一个HLL中
2)实例
Geospatial
简介
Redis 3.2中增加了对GEO类型的支持。GEO , Geographic,地理信息的缩写。该类型,就是元素的2维坐标,在地图上就是经纬度。redis基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash 等常见操作。
命令
geoadd
1)格式
geoadd key longitude latitude member 【longitude latitude member...】添加地理位置(经度,纬度,名称)
2)实例
2.geopos
1)格式
geopos key member 【member...】获得指定地区的坐标值
2)实例
3.geodist
1)格式
geodist key member1 member2 【m|km|ft|mi】获得两个位置之间的直线距离
2)实例
4.georadius
1)格式
georadius key longitude latitude redis m|km|ft|mi 以给定的经纬度为中心,找出某一半径内的元素
2)实例
Jedis操作Redis6
<dependency>
<groupId>redis.clients</groupId>
<artifactId>jedis</artifactId>
<version>3.2.0</version>
</dependency>
<dependency>
<groupId>org.junit.jupiter</groupId>
<artifactId>junit-jupiter</artifactId>
<version>RELEASE</version>
<scope>compile</scope>
</dependency>
package com.cedric.jedis;
import org.junit.jupiter.api.Test;
import redis.clients.jedis.Jedis;
import java.util.List;
import java.util.Set;
public class JedisDemo1 {
public static void main(String[] args) {
// 创建Jedis对象
Jedis jedis = new Jedis("192.168.118.130",6379);
// 测试
String value = jedis.ping();
System.out.println(value);
}
// 操作zset
@Test
public void test5(){
// 创建Jedis对象
Jedis jedis = new Jedis("192.168.118.130",6379);
jedis.zadd("china",100,"shanghai");
Set<String> china = jedis.zrange("china", 0, -1);
System.out.println(china);
}
// 操作Hash
@Test
public void test4(){
// 创建Jedis对象
Jedis jedis = new Jedis("192.168.118.130",6379);
jedis.hset("user","age","20");
String hget = jedis.hget("user","age");
System.out.println(hget);
}
// 操作set
@Test
public void test3(){
// 创建Jedis对象
Jedis jedis = new Jedis("192.168.118.130",6379);
jedis.sadd("Name","Lucy","Jack");
Set<String> names = jedis.smembers("Name");
System.out.println(names);
}
// 操作List
@Test
public void test2(){
// 创建Jedis对象
Jedis jedis = new Jedis("192.168.118.130",6379);
jedis.lpush("key1","luck","marry","zhangsan");
List<String> values = jedis.lrange("key1",0,-1);
System.out.println(values);
}
@Test
public void test1(){
// 创建Jedis对象
Jedis jedis = new Jedis("192.168.118.130",6379);
// 添加
jedis.set("name","jack");
// 获取
String name = jedis.get("name");
System.out.println(name);
System.out.println(jedis.exists("name"));
System.out.println(jedis.ttl(name));
// 设置多个key-value
jedis.mset("k1","v1","k2","v2","k3","v3");
List<String> mget = jedis.mget("k1","k2","k3");
System.out.println(mget);
Set<String> keys = jedis.keys("*");
for(String key : keys){
System.out.println(key);
}
}
}
模拟验证码发送
package com.cedric.jedis;
import redis.clients.jedis.Jedis;
import java.util.Random;
public class PhoneCode {
public static void main(String[] args) {
// 模拟验证码发送
verifyCode("15566625431");
// 验证码校验
// getRedisCode("15566625431","382869");
}
// 验证码校验
public static void getRedisCode(String phone,String code){
// 从redis中获取验证码
Jedis jedis = new Jedis("192.168.118.131",6379);
// 验证码key
String codeKey = "VerifyCode:" + phone + "code";
String redisCode = jedis.get(codeKey);
// 判断
if (redisCode.equals(code)){
System.out.println("成功");
} else {
System.out.println("失败");
}
jedis.close();
}
// 2.每个手机每天只能发送三次,验证码放到redis中,设置过期时间
public static void verifyCode(String phone){
// 连接Jedis
Jedis jedis = new Jedis("192.168.118.131",6379);
// 拼接key
// 手机验证码发送的次数
String countKey = "VerifyCode:" + phone + "count";
// 验证码key
String codeKey = "VerifyCode:" + phone + "code";
// 每个手机每天只能发送三次
String count = jedis.get(countKey);
if(count == null){
// 没有发送此时则表示第一次发送
// 设置发送次数为1
jedis.setex(countKey,24*60*60,"1");
} else if(Integer.parseInt(count) <= 2){
// 发送次数+1
jedis.incr(countKey);
} else if(Integer.parseInt(count) > 2){
System.out.println("今天发送的次数已超过三次");
jedis.close();
return;
}
// 发送验证码到redis
String vCode = getCode();
jedis.setex(codeKey,120,vCode);
jedis.close();
}
// 1.生成六位数的验证码
public static String getCode(){
Random random = new Random();
String code = "";
for (int i=0;i<6;i++){
int rand = random.nextInt(10);
code += rand;
}
return code;
}
}
SpringBoot整合Redis
<!--Redis-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
<!--SpringBoot集成Redis-->
<dependency>
<groupId>org.apache.commons</groupId>
<artifactId>commons-pool2</artifactId>
</dependency>
package com.cedric.redis.config;
import com.fasterxml.jackson.annotation.JsonAutoDetect;
import com.fasterxml.jackson.annotation.PropertyAccessor;
import com.fasterxml.jackson.databind.ObjectMapper;
import org.springframework.cache.CacheManager;
import org.springframework.cache.annotation.CacheConfig;
import org.springframework.cache.annotation.CachingConfigurerSupport;
import org.springframework.cache.annotation.EnableCaching;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.cache.RedisCacheConfiguration;
import org.springframework.data.redis.cache.RedisCacheManager;
import org.springframework.data.redis.connection.RedisConfiguration;
import org.springframework.data.redis.connection.RedisConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.Jackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.RedisSerializationContext;
import org.springframework.data.redis.serializer.RedisSerializer;
import org.springframework.data.redis.serializer.StringRedisSerializer;
import java.time.Duration;
@EnableCaching
@Configuration
public class RedisConfig extends CachingConfigurerSupport {
@Bean
public RedisTemplate<String,Object> redisTemplate(RedisConnectionFactory factory){
RedisTemplate<String,Object> template = new RedisTemplate<>();
RedisSerializer<String> redisSerializer = new StringRedisSerializer();
Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
ObjectMapper om = new ObjectMapper();
om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
jackson2JsonRedisSerializer.setObjectMapper(om);
template.setConnectionFactory(factory);
// key 序列化方式
template.setKeySerializer(redisSerializer);
// value hashmap序列化
template.setHashKeySerializer(jackson2JsonRedisSerializer);
return template;
}
@Bean
public CacheManager cacheManager(RedisConnectionFactory factory){
RedisSerializer<String> redisSerializer = new StringRedisSerializer();
Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
ObjectMapper om = new ObjectMapper();
om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
jackson2JsonRedisSerializer.setObjectMapper(om);
RedisCacheConfiguration config = RedisCacheConfiguration.defaultCacheConfig()
.entryTtl(Duration.ofSeconds(600))
.serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(redisSerializer))
.serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(jackson2JsonRedisSerializer))
.disableCachingNullValues();
RedisCacheManager cacheManager = RedisCacheManager.builder(factory)
.cacheDefaults(config)
.build();
return cacheManager;
}
}
package com.cedric.redis.controller;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
@RestController
@RequestMapping("/redisTest")
public class RedisTestController {
@Autowired
private RedisTemplate redisTemplate;
@GetMapping
public String testRedis(){
// 设置值到redis
redisTemplate.opsForValue().set("name","jack");
// 从redis获取值
String name = (String) redisTemplate.opsForValue().get("name");
return name;
}
}
Redis事务
事务的定义
Redis事务是一个单独的隔离操作:事务中所有的命令都会序列化、按顺序的执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断
Redis事务的主要作用就是串联多个命令防止别的命令插队
Multi、Exec、discard
从输入Multi命令开始,输入的命令都会依次进入命令队列中,但不会执行,直到输出Exec后,Redis会将之前的命令队列中的命令依次执行
组队的过程中可以通过discard来放弃组队
案例
组队阶段报错,提交失败
事务的错误处理
组队中某个命令出现了报告错误,执行时整个的所有队列都会被取消
如果执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其中的命令都会执行,不会回滚
事务冲突问题
例子
一个请求想给金额-8000
一个请求想给金额-5000
一个请求想给金额-1000
悲观锁
悲观锁:传递的关系型数据库里边就用就用到了这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁
乐观锁
乐观锁:顾名思义,就很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有更新这个数据,可以使用版本号等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。Redis就是利用这种check-and-set机制实现事务的
WATCH key[key...]
在执行multi之前,先执行watch key1[key2],可以监视一个(多个)key,如果事务在执行这个(或这些)key被其他命令所改动,那么事务将被打断
unwatch
取消WATCH命令对所有key的监视
如果在执行WATCH命令之后,EXEC命令或DISCARD命令先被执行了的话,那么就不需要再执行UNWATCH了
Redis事务三特性
单独的隔离操作
事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的请求命令所打断
没有隔离级别的概念
队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行
不保证原子性
事务中如果有一条命令执行失败,其他的命令仍然会被执行,没有回滚
持久化
Redis持久化之RDB
RDB:在指定的时间间隔内将内存中的数据集快照写入磁盘里,它恢复时是将快照文件读到内存里
备份是如何执行的
Redis会单独创建(fork)一个子进程来进行持久化,数据写入临时文件,待持久化过程结束,再用临时文件替换上次持久化好的文件,如果需要大规模的数据恢复,且对数据恢复的完整性不是非常敏感,那RDB方式要比AOF更高效
缺点:最后一次持久化后的数据可能会丢失
Fork
复制一个与当前进程一样的进程,并作为原进程的子进程
写时复制技术
RDB持久化流程
优势
适合大规模的数据恢复
对数据完整性和一致性要求不高更适合使用
节省磁盘空间
恢复速度快
劣势
Fork的时候,内存中的数据被克隆了一份,大致2倍的膨胀性需要考虑
虽然Redis在fork的时候使用了写时拷贝技术,但是如果数据庞大时还是比较消耗性能
在备份周期在一定间隔时间做一次备份,所以如果Redis意外down掉的话,就会丢失最后一次快照后的所有修改
Redis持久化之AOF
AOF:以日志的形式来记录每个写操作(增量保存),将Redis执行过的所有指令记录下来(读除外),只许追加文件但不可以改写文件。redis重启的话就根据日志文件的内容将写指令从前到后执行一次完成数据的恢复工作
AOF持久化流程
1.客户端的请求写命令会被append追加到AOF缓冲区内
2.AOF缓冲区根据AOF持久化策略[always,everysec,no]将操作sync同步到磁盘的AOF文件中
3.AOF文件大小超过重写策略或手动重写时,会对AOF文件rewrite重写,压缩AOF文件容量
4.Redis服务重启时,会重新加载load加载AOF文件中的写操作达到数据恢复的目的
AOF默认不开启
可以在redis.conf中配置文件名称,默认为appendonly.aof
AOF文件的保存路径,同RDB的路径一致
**AOF和RDB同时开启,系统默认取AOF的数据(数据不会存在丢失)
AOF启动/修复/恢复
正常恢复
修改默认的appendonly no 改为yes
将有数据的aof文件复制一份保存到对应目录(查看目录:config get dir)
恢复:重启redis然后重新加载
异常恢复
修改默认的appendonly no 改为yes
如果遇到AOF文件损坏,通过/usr/local/bin/redis-check-aof--fix appendonly.aof进行恢复
备份被写坏的AOF文件
恢复:重启redis,然后重写加载
AOF同步频率设置
appendfsync always
始终同步,每次Redis的写入都会立刻记录日志;性能较差但数据完整性比较好
appendsync everysec
每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失
appendfsync no
redis不主动进行同步,把同步时机交给操作系统
Redis主从复制
主机数据更新后根据配置和策略,自动同步到备机的master/slaver机制,Master以写为主,Slave以读为主
- 读写分离,性能扩展
- 容灾快速恢复
常用三招
一主二仆
主负责写 仆只能读
薪火相传
反客为主
当一个master宕机后,后面的salve可以立刻升为master,其后面的salve不用做任何修改
用slaveof no one 将从机变成主机
主从复制原理
哨兵模式
自定义的/myredis目录下新建sentinel.conf文件,名字绝不能出错
配置哨兵,填写内容
sentinel monitor mymaster 127.0.0.1 6379 1
其中mymaster为监控对象起的服务器名称,1为至少有一多个哨兵同意迁徙的数量
启动哨兵
/usr/local/bin
redis做测压可以用自带的redis-benchmark工具
主从复制
package com.cedric.redis.controller;
import io.netty.util.internal.StringUtil;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.util.StringUtils;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
import java.util.UUID;
import java.util.concurrent.TimeUnit;
@RestController
@RequestMapping("/redisTest")
public class RedisTestController {
@Autowired
private RedisTemplate redisTemplate;
@GetMapping("testLock")
public void testLock(){
String uuid = UUID.randomUUID().toString();
// 1.获取锁。setne
Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock",uuid,3, TimeUnit.SECONDS);
// 2.获取锁成功、查询num的值
if(lock){
Object value = redisTemplate.opsForValue().get("num");
//2.1判断num为空返回null
if (StringUtils.isEmpty(value)){
return;
}
// 2.2有值就转成int
int num = Integer.parseInt(value + "");
//2.3把redis的num+1
redisTemplate.opsForValue().set("num",++num);
//2.4释放锁
// 判断比较uuid值是否一样
String lockUuid = (String) redisTemplate.opsForValue().get("lock");
if (lockUuid.equals(uuid)){
redisTemplate.delete("lock");
}
}else {
// 3.获取锁失败、每隔0.1秒再获取
try {
Thread.sleep(100);
testLock();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
}
Redis集群
问题
容量不够,redis如何进行扩容?
并发写操作,redis如何分摊?
redis3.0中提供了解决方案,就是无中心化集群配置
什么是集群?
Redis集群实现了对Redis的水平扩容,即启动N个redis节点,将整个数据库分布存储在这N个节点中,每个节点存储总数据的1/N
Redis集群通过分区来提供一定程度的可用性,即使集群中有一部分节点失效或者无法进行通讯,集群也可以继续处理命令请求
删除持久化数据
将rdb,aof文件都删掉
Redis应用问题
缓存穿透
解决方案:
(1) 对空值缓存:如果-个查询返回的数据为空(不管是数据是否不存在) ,我们仍然把这个空结果( null )进行缓存,设置空结果的过期时间会很短,最长不超过五分钟。
(2) 设置可访问的名单(白名单) :。
使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果访问id不在bitmaps里面,进行拦截,不允许访问。。
(3)采用布隆过滤器︰(布隆过滤器(Bloom Filter )是1970年由布隆提出的。
它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)。
(4)进行实时监控:当发现 Redis的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务
缓存击穿
解决方案
key 可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候需要考虑缓存被击穿的问题
(1)预先设置热门数据:在redis高峰访问之前,把一些热门数据提前存入到redis里面,加大这些热门数据key的时长
( 2)实时调整:现场监控哪些数据热门,实时调整key的过期时长
(3)使用锁:( 1 )就是在缓存失效的时候(判断拿出来的值为空),不是立即去 load db。v(2)先使用缓存工具的某些带成功操作返回值的操作(比如 Redis 的SETNX)
缓存雪崩
缓存失效时的雪崩效应对底层系统的冲击非常可怕
解决方案:
(1)构建多级缓存架构: nginx缓存+redis缓存+其他缓存( ehcache等)
( 2)使用锁或队列:用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况·