Redis笔记(下)

Redis与Spring Boot整合

  1、 pom.xml文件中引入redis相关依赖

 

<!-- redis -->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-data-redis</artifactId>
        </dependency>

        <!-- spring2.X集成redis所需common-pool2-->
        <dependency>
            <groupId>org.apache.commons</groupId>
            <artifactId>commons-pool2</artifactId>
            <version>2.6.0</version>
        </dependency>

 

  2、application.properties配置redis配置

#Redis服务器地址
spring.redis.host=192.168.254.128
#Redis服务器连接端口
spring.redis.port=6379
#Redis数据库索引(默认为0)
spring.redis.database= 0
#连接超时时间(毫秒)
spring.redis.timeout=1800000
#连接池最大连接数(使用负值表示没有限制)
spring.redis.lettuce.pool.max-active=20
#最大阻塞等待时间(负数表示没限制)
spring.redis.lettuce.pool.max-wait=-1
#连接池中的最大空闲连接
spring.redis.lettuce.pool.max-idle=5
#连接池中的最小空闲连接
spring.redis.lettuce.pool.min-idle=0

  3、 添加redis配置类

package com.he.config;

import com.fasterxml.jackson.annotation.JsonAutoDetect;
import com.fasterxml.jackson.annotation.PropertyAccessor;
import com.fasterxml.jackson.databind.ObjectMapper;
import org.springframework.cache.CacheManager;
import org.springframework.cache.annotation.CachingConfigurerSupport;
import org.springframework.cache.annotation.EnableCaching;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.cache.RedisCacheConfiguration;
import org.springframework.data.redis.cache.RedisCacheManager;
import org.springframework.data.redis.connection.RedisConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.Jackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.RedisSerializationContext;
import org.springframework.data.redis.serializer.RedisSerializer;
import org.springframework.data.redis.serializer.StringRedisSerializer;

import java.time.Duration;

@EnableCaching
@Configuration
public class RedisConfig extends CachingConfigurerSupport {

    @Bean
    public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory factory) {
        RedisTemplate<String, Object> template = new RedisTemplate<>();
        RedisSerializer<String> redisSerializer = new StringRedisSerializer();
        Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
        ObjectMapper om = new ObjectMapper();
        om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
        om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
        jackson2JsonRedisSerializer.setObjectMapper(om);
        template.setConnectionFactory(factory);
//key序列化方式
        template.setKeySerializer(redisSerializer);
//value序列化
        template.setValueSerializer(jackson2JsonRedisSerializer);
//value hashmap序列化
        template.setHashValueSerializer(jackson2JsonRedisSerializer);
        return template;
    }

    @Bean
    public CacheManager cacheManager(RedisConnectionFactory factory) {
        RedisSerializer<String> redisSerializer = new StringRedisSerializer();
        Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
//解决查询缓存转换异常的问题
        ObjectMapper om = new ObjectMapper();
        om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
        om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
        jackson2JsonRedisSerializer.setObjectMapper(om);
// 配置序列化(解决乱码的问题),过期时间600秒
        RedisCacheConfiguration config = RedisCacheConfiguration.defaultCacheConfig()
                .entryTtl(Duration.ofSeconds(600))
                .serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(redisSerializer))
                .serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(jackson2JsonRedisSerializer))
                .disableCachingNullValues();
        RedisCacheManager cacheManager = RedisCacheManager.builder(factory)
                .cacheDefaults(config)
                .build();
        return cacheManager;
    }
}

  4、调用RedisTemplate

 @Autowired
    private RedisTemplate redisTemplate;

    @GetMapping
    public String testRedis(){
        //设置值到redis
        redisTemplate.opsForValue().set("name","lucy");
        //从redis获取值
        String name = (String) redisTemplate.opsForValue().get("name");
        return name;
    }

 

Redis_事务_锁机制_秒杀

  Redis的事务定义   

    Redis事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。Redis事务的主要作用就是串联多个命令防止别的命令插队。

  MultiExecdiscard

    从输入Multi命令开始,输入的命令都会依次进入命令队列中,但不会执行,直到输入Exec后,Redis会将之前的命令队列中的命令依次执行。组队的过程中可以通过discard来放弃组队。

 

   组队成功,提交成功

 

 组队阶段报错,提交失败

 组队成功,提交有成功有失败情况

 

  事务的错误处理

    •   组队中某个命令出现了报告错误,执行时整个的所有队列都会被取消。
    •   如果执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚。

 

  悲观锁

 

     悲观锁, 顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁。传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁。

 

  乐观锁

 

 

    乐观锁, 顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。Redis就是利用这种check-and-set机制实现事务的。

 

  WATCH key

    在执行multi之前,先执行watch key1 [key2],可以监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断

 

  unwatch

    取消 WATCH 命令对所有 key 的监视。如果在执行 WATCH 命令之后,EXEC 命令或DISCARD 命令先被执行了的话,那么就不需要再执行UNWATCH 了。

 

 

Redis事务三特性

  • 单独的隔离操作

     事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

  • 没有隔离级别的概念

    队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行

  • 不保证原子性

    事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚

 

 

Redis持久化之RDB

  概述

    在指定的时间间隔内将内存中的数据集快照写入磁盘, 也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里

 

  备份是如何执行的

    Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到 一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。 整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能 如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失

  RDB持久化流程

  优势   

    适合大规模的数据恢复

    对数据完整性和一致性要求不高更适合使用

    节省磁盘空间

    恢复速度快

  劣势

    Fork的时候,内存中的数据被克隆了一份,大致2倍的膨胀性需要考虑

    虽然Redisfork时使用了写时拷贝技术,但是如果数据庞大时还是比较消耗性能。

    在备份周期在一定间隔时间做一次备份,所以如果Redis意外down掉的话,就会丢失最后一次快照后的所有修改。

  总结

 

 

 

Redis持久化之AOF

  概述   

    以日志的形式来记录每个写操作(增量保存),Redis执行过的所有写指令记录下来(读操作不记录)只许追加文件但不可以改写文件redis启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作

  AOF持久化流程

  (1)客户端的请求写命令会被append追加到AOF缓冲区内;

  (2AOF缓冲区根据AOF持久化策略[always,everysec,no]将操作sync同步到磁盘的AOF文件中;

  (3AOF文件大小超过重写策略或手动重写时,会对AOF文件rewrite写,压缩AOF文件容量;

  (4Redis服务重启时,会重新load加载AOF文件中的写操作达到数据恢复的目的;

 

 

 

  AOFRDB同时开启,系统默认取AOF的数据(数据不会存在丢失)

 

  AOF同步频率设置

    appendfsync always

      始终同步,每次Redis的写入都会立刻记入日志;性能较差但数据完整性比较好

    appendfsync everysec

      每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失。

    appendfsync no

      redis不主动进行同步,把同步时机交给操作系统。

  Rewrite压缩

    概述      

      AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制, AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩, 只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof

 

   重写原理,如何实现重写

      auto-aof-rewrite-percentage:设置重写的基准值,文件达到100%时开始重写(文件是原来重写后文件的2倍时触发)

      如果RedisAOF当前大小>= base_size +base_size*100% (默认)当前大小>=64mb(默认)的情况下,Redis会对AOF进行重写。

 

 

 

  优势

    

    备份机制更稳健,丢失数据概率更低。

    可读的日志文本,通过操作AOF稳健,可以处理误操作。

 

  劣势

    比起RDB占用更多的磁盘空间。

    恢复备份速度要慢。

    每次读写都同步的话,有一定的性能压力。

    存在个别Bug,造成恢复不能。

 

  总结

 

 

  官网建议

    RDB持久化方式能够在指定的时间间隔能对你的数据进行快照存储

    AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以redis协议追加保存每次写的操作到文件末尾.

    Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大

    只做缓存:如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式.

    同时开启两种持久化方式

    在这种情况下,redis重启的时候会优先载入AOF文件来恢复原始的数据, 因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整.

    RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件。那要不要只使用AOF呢?

    建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份) 快速重启,而且不会有AOF可能潜在的bug,留着作为一个万一的手段。

 

Redis_主从复制

  概述:主机数据更新后根据配置和策略, 自动同步到备机的master/slaver机制Master以写为主,Slave以读为主。

  主从复制:

    拷贝多个redis.conf文件include(写绝对路径)

    开启daemonize yes

    Pid文件名字pidfile

    指定端口port

    Log文件名字

    dump.rdb名字dbfilename

    Appendonly 关掉或者换名字

 

  三台Redis服务器中redis.conf配置

 

#redis6379.conf
include /myredis/redis.conf
pidfile /var/run/redis_6379.pid
port 6379
dbfilename dump6379.rdb

#redis6380.conf
include /myredis/redis.conf
pidfile /var/run/redis_6380.pid
port 6380
dbfilename dump6380.rdb

#redis6381.conf
include /myredis/redis.conf
pidfile /var/run/redis_6381.pid
port 6381
dbfilename dump6381.rdb

 

  启动三台Redis服务器命令

reids-server redis6379.conf

reids-server redis6380.conf

reids-server redis6381.conf

  查看系统进程,查看三台服务器是否启动

ps -ef|grep redis

  查看三台主机运行情况

#打印主从复制的相关信息
info replication

  配从(库)不配主(

 

  slaveof  <ip><port>  成为某个实例的从服务器

  6379为主机,分别再6380、6381上执行 slaveof 127.0.0.1 6379

  主机写数据,从句接收,当主机挂掉重启即可、当从机挂掉,需重设 slaveof 127.0.0.1 6379

 

 

哨兵模式(sentinel)

  概念:反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库

  

 

  步骤设置:

    1、调整为一主二仆模式6379带着63806381

     2、自定义的/myredis目录下新建sentinel.conf文件(名字绝不能错)

    3、配置哨兵,填写内容

sentinel monitor mymaster 127.0.0.1 6379 1  #其中mymaster为监控对象起的服务器名称, 1 为至少有多少个哨兵同意迁移的数量。

    4、启动哨兵

执行redis-sentinel  /myredis/sentinel.conf 

    5、当主机挂掉,从机选举中产生新的主机

      新主机优先级:根据优先级别:slave-priority 原主机重启后会变为从机。

    优先级在redis.conf中默认:slave-priority 100,值越小优先级越高

    偏移量是指获得原主机数据最全的

    每个redis实例启动后都会随机生成一个40位的runid

 

  Idea主从复制

private static JedisSentinelPool jedisSentinelPool=null;

public static  Jedis getJedisFromSentinel(){
if(jedisSentinelPool==null){
            Set<String> sentinelSet=new HashSet<>();
            sentinelSet.add("192.168.11.103:26379");

            JedisPoolConfig jedisPoolConfig =new JedisPoolConfig();
            jedisPoolConfig.setMaxTotal(10); //最大可用连接数
jedisPoolConfig.setMaxIdle(5); //最大闲置连接数
jedisPoolConfig.setMinIdle(5); //最小闲置连接数
jedisPoolConfig.setBlockWhenExhausted(true); //连接耗尽是否等待
jedisPoolConfig.setMaxWaitMillis(2000); //等待时间
jedisPoolConfig.setTestOnBorrow(true); //取连接的时候进行一下测试 ping pong

jedisSentinelPool=new JedisSentinelPool("mymaster",sentinelSet,jedisPoolConfig);
return jedisSentinelPool.getResource();
        }else{
return jedisSentinelPool.getResource();
        }
}

 

 

Redis应用问题解决 

  缓存穿透    

    问题描述

        key对应的数据在数据源并不存在,每次针对此key的请求从缓存获取不到,请求都会压到数据源,从而可能压垮数据源。比如用一个不存在的用户id获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库。

 

 

  解决方案

    一个一定不存在缓存及查询不到的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。

      解决方案:

      (1) 对空值缓存:如果一个查询返回的数据为空(不管是数据是否不存在),我们仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟

      (2) 设置可访问的名单(白名单):

        使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果访问id不在bitmaps里面,进行拦截,不允许访问。

      (3) 采用布隆过滤器(布隆过滤器(Bloom Filter)是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)。

        布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。)

        将所有可能存在的数据哈希到一个足够大的bitmaps中,一个一定不存在的数据会被 这个bitmaps拦截掉,从而避免了对底层存储系统的查询压力。

      (4) 进行实时监控:当发现Redis的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务

 

 

  缓存击穿

    问题描述

        key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。

  解决方案

    key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:缓存被“击穿”的问题。

    解决问题:

    (1)预先设置热门数据:redis高峰访问之前,把一些热门数据提前存入到redis里面,加大这些热门数据key的时长

    (2)实时调整:现场监控哪些数据热门,实时调整key的过期时长

    (3)使用锁:

      (1) 就是在缓存失效的时候(判断拿出来的值为空),不是立即去load db

      (2) 先使用缓存工具的某些带成功操作返回值的操作(比如RedisSETNX)去set一个mutex key

      (3) 当操作返回成功时,再进行load db的操作,并回设缓存,最后删除mutex key

        当操作返回失败,证明有线程在load db,当前线程睡眠一段时间再重试整个get缓存的方法。

 

 

  缓存雪崩

    问题描述

        key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。

缓存雪崩与缓存击穿的区别在于这里针对很多key缓存,前者则是某一个key

    正常访问

    缓存失效瞬间

 

  解决方案

    缓存失效时的雪崩效应对底层系统的冲击非常可怕!

    解决方案:

     (1) 构建多级缓存架构:nginx缓存 + redis缓存 +其他缓存(ehcache等)

     (2) 使用锁或队列

      用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况

     (3) 设置过期标志更新缓存:

      记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际key的缓存。

     (4) 将缓存失效时间分散开:

      比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。

 

 

 

 

 

 

posted @ 2022-09-05 19:57  Homnay  阅读(37)  评论(0)    收藏  举报