redis

两万字Redis大总结,要言不烦,字字珠玑

IT邦德 PHP大神  2022-03-31 10:38

图片

来源:http://a.nxw.so/1qUtqX

 

 

 

 

一、redis的数据类型

 

1、String

#追加字符串,没有的话就新建append name “wangqin”#字符串长度strlen name#i++set count 0incr count#i–decr count#指定增量 count = count + 10incrby count 10#指定减量 count = count - 10decrby count 10#截取字符串 wangqingetrange key 0 3“wang”#替换setrange key 1 qq“wqqgqin”#设置过期时间setex key 30 “hello”#不存在再设置,往往在分布式中使用,如果key1不存在就创建,存在就创建失败setnx key1 “redis”#批量设置mset k1 v1 k2 v2 k3 v3#批量获取mget k1 k2#要么一起成功,要么一起失败,保持原子性msetnx k1 v1 k2 v2#先获取在写入,不存在值为nil,存在的话获取原来的值在设置新的值getset

 

2、List

#将一个值或者多个值插入list的头部127.0.0.1:6379> lpush list one(integer) 1127.0.0.1:6379> lpush list two(integer) 2127.0.0.1:6379> lpush list three(integer) 3#查看list,头->尾127.0.0.1:6379> lrange list 0 -11) "three"2) "two"3) "one"127.0.0.1:6379> lrange list 0 11) "three"2) "two"127.0.0.1:6379> rpush list right(integer) 4#将一个值或者多个值插入list的尾部127.0.0.1:6379> lrange list 0 -11) "three"2) "two"3) "one"4) "right"#移除list第一个元素127.0.0.1:6379> lpop list"three"127.0.0.1:6379> lrange list 0 -11) "two"2) "one"3) "right"#移除list最后一个元素127.0.0.1:6379> rpop list"right"127.0.0.1:6379> lrange list 0 -11) "two"2) "one"#根据下标获取值127.0.0.1:6379> lindex list 0#获取list长度127.0.0.1:6379> llen list(integer) 2127.0.0.1:6379> lrange list 0 -11) "three"2) "two"3) "two"4) "one"#从上至下删除一个 two127.0.0.1:6379> lrem list 1 two(integer) 1127.0.0.1:6379> lrange list 0 -11) "three"2) "two"3) "one"127.0.0.1:6379>

 

3、Set

#添加Set元素127.0.0.1:6379> sadd myset v1 v2 v3 v4(integer) 4#显示所有myset集合中的元素127.0.0.1:6379> smembers myset1) "v1"2) "v3"3) "v4"4) "v2"#查询v1是否存在myset集合中,存在就返回1,不存在就返回0127.0.0.1:6379> sismember myset v1(integer) 1127.0.0.1:6379> sismember myset v6(integer) 0127.0.0.1:6379> sadd uset k1 k2 k3 v1(integer) 4#合并集合myset和uset到集合set中,set重复的取一个就行127.0.0.1:6379> sunionstore set myset uset(integer) 7#合并显示集合myset和uset127.0.0.1:6379> sunion myset uset1) "v1"2) "v3"3) "k1"4) "k3"5) "v4"6) "k2"7) "v2"#set集合的长度127.0.0.1:6379> scard set(integer) 6#随机删除set中的元素127.0.0.1:6379> spop set"v4"#移动指定的一个值到其他的集合中set->myset127.0.0.1:6379> smove set myset k1#两个集合的差集127.0.0.1:6379> smembers set1) "v3"2) "k3"3) "k2"4) "v2"127.0.0.1:6379> smembers myset1) "v1"2) "v3"3) "v4"4) "v2"5) "k1"127.0.0.1:6379> sdiff myset set1) "v1"2) "k1"3) "v4"#两个集合的交集127.0.0.1:6379> sinter myset set1) "v3"2) "v2"#两个集合的并集127.0.0.1:6379> sunion myset set1) "v1"2) "v3"3) "k1"4) "k3"5) "v4"6) "k2"7) "v2"

 

4、Hash(哈希)

#set一个具体的 key-value127.0.0.1:6379> hset myhash name wangqin(integer) 1#获取一个字段值127.0.0.1:6379> hget myhash name"wangqin"#set一组 key-value127.0.0.1:6379> hmset myhash name wangqin1 age 18OK#获取一组 key-value127.0.0.1:6379> hmget myhash name age1) "wangqin1"2) "18"#获取全部数据127.0.0.1:6379> hgetall myhash1) "name"2) "wangqin1"3) "age"4) "18"#删除指定的key127.0.0.1:6379> hdel myhash name(integer) 1127.0.0.1:6379> hgetall myhash1) "age"2) "18"127.0.0.1:6379> hmset myhash name wangqin set maleOK#获取hash表的字段数量127.0.0.1:6379> hlen myhash(integer) 3#hash表中是否存在key127.0.0.1:6379> hexists myhash name(integer) 1127.0.0.1:6379> hexists myhash name1(integer) 0#获取hash表的key127.0.0.1:6379> hkeys myhash1) "age"2) "name"3) "set"#获取hash表的值127.0.0.1:6379> hvals myhash1) "18"2) "wangqin"3) "male"

 

5、Zset(有序集合)

#添加zset元素127.0.0.1:6379> zadd zset 1 one(integer) 1#批量添加zset元素127.0.0.1:6379> zadd zset 2 two 3 three(integer) 2#获取zset中所有元素127.0.0.1:6379> zrange zset 0 -11) "one"2) "two"3) "three"#倒序查询127.0.0.1:6379> zrevrange zset 0 -11) "three"2) "two"3) "one"127.0.0.1:6379> zadd zset -1 -one(integer) 1127.0.0.1:6379> zadd zset -2 -two(integer) 1#正序排序,从-∞到+∞127.0.0.1:6379> zrangebyscore zset -inf +inf1) "-two"2) "-one"3) "one"4) "two"5) "three"127.0.0.1:6379> zrangebyscore zset -1 +inf1) "-one"2) "one"3) "two"4) "three"#倒序排序,从+∞到-∞127.0.0.1:6379> zrevrangebyscore zset +inf -11) "three"2) "two"3) "one"4) "-one"127.0.0.1:6379> zrem zset one(integer) 1127.0.0.1:6379> zrange zset 0 -11) "-two"2) "-one"3) "two"4) "three"#集合的长度127.0.0.1:6379> zcard zset(integer) 4

 

6、geospatital(地理位置)

#添加地理位置127.0.0.1:6379> geoadd China:city 116.42 29.90 home(integer) 1127.0.0.1:6379> geoadd China:city 117.30 31.79 hefei(integer) 1127.0.0.1:6379> geoadd China:city 120.21  30.20 hangzhou(integer) 1127.0.0.1:6379> geoadd China:city 121.48 31.40 shenzhen(integer) 1127.0.0.1:6379> geoadd China:city 106.54 29.40 chongqing(integer) 1#获取纬度和经度127.0.0.1:6379> geopos China:city home1) 1) "116.41999751329421997" 2) "29.90000043079877656"#获取两地距离127.0.0.1:6379> geodist China:city home hefei"226388.9875"127.0.0.1:6379> geodist China:city home hefei km"226.3890"# 距离115 30范围300km的地方127.0.0.1:6379> georadius China:city 115 30 300 km1) "home"2) "hefei"

 

7、Hyperloglog

如果可以允许容错的话可以使用Hyperloglog,0.81%的容错率#创建元素127.0.0.1:6379> pfadd mykey a b c d e f g(integer) 1#统计mykey元素的基数数量127.0.0.1:6379> pfcount mykey(integer) 7127.0.0.1:6379> pfadd ukey q w e r t y u i o p(integer) 1#合并两组 mkey ukey->key,会去重127.0.0.1:6379> pfmerge key mykey ukeyOK127.0.0.1:6379> pfcount key(integer) 15

 

8、Bitmap(位储存)

位图,只有两种状态的,操作二进制来进行记录,只有0 1两个状态#添加元素127.0.0.1:6379> setbit sign 0 1(integer) 0127.0.0.1:6379> setbit sign 1 1(integer) 0127.0.0.1:6379> setbit sign 2 0(integer) 0127.0.0.1:6379> setbit sign 3 0(integer) 0#查询元素127.0.0.1:6379> getbit sign 3(integer) 0127.0.0.1:6379> getbit sign 1(integer) 1#统计次数127.0.0.1:6379> bitcount sign(integer) 3

 

二、事务

 

#开启一组事务127.0.0.1:6379> multiOK127.0.0.1:6379> set k1 v1QUEUED127.0.0.1:6379> set k2 v2QUEUED127.0.0.1:6379> get k2QUEUED127.0.0.1:6379> set k3 v3QUEUED#执行事务127.0.0.1:6379> exec1) OK2) OK3) "v2"4) OK#放弃事务127.0.0.1:6379> multiOK127.0.0.1:6379> set k4 v4QUEUED127.0.0.1:6379> set k5 v5QUEUED127.0.0.1:6379> discardOK127.0.0.1:6379> get v4(nil)

 

三、Jedis

 

1、导入依赖

<dependencies>  <!-- https://mvnrepository.com/artifact/redis.clients/jedis -->  <dependency>    <groupId>redis.clients</groupId>    <artifactId>jedis</artifactId>    <version>3.2.0</version>  </dependency>  <dependency>    <groupId>com.alibaba</groupId>    <artifactId>fastjson</artifactId>    <version>1.2.58</version>  </dependency></dependencies>

2、测试连接

public static void main(String[] args) {  Jedis jedis = new Jedis("127.0.0.1", 6379);  System.out.println("连接成功");  //查看服务是否运行  System.out.println("服务正在运行: "+ jedis.ping());}

3、Jedis的API

Jedis jedis = new Jedis("127.0.0.1", 6379);System.out.println("清空数据:"+jedis.flushDB());System.out.println("判断某个键是否存在:"+jedis.exists("username"));System.out.println("新增<'username','wangqin'>的键值对:"+jedis.set("username","wangqin"));
System.out.println("新增<'password','password'>的键值对:"+jedis.set("password","password"));System.out.print("系统中所有的键如下:");Set<String> keys = jedis.keys("*");System.out.println(keys);System.out.println("删除键password:"+jedis.del("password"));System.out.println("判断键password是否存在:"+jedis.exists("password"));System.out.println("查看键username所存储的值的类型:"+jedis.type("username"));System.out.println("随机返回key空间的一个:"+jedis.randomKey());System.out.println("重命名key:"+jedis.rename("username","name"));System.out.println("取出改后的name:"+jedis.get("name"));System.out.println("按索引查询:"+jedis.select(0));System.out.println("删除当前选择数据库中的所有key:"+jedis.flushDB());System.out.println("返回当前数据库中key的数目:"+jedis.dbSize());System.out.println("删除所有数据库中的所有key:"+jedis.flushAll());

 

4、String

Jedis jedis = new Jedis("127.0.0.1", 6379);jedis.flushDB();System.out.println("===========增加数据===========");System.out.println(jedis.set("key1","value1"));System.out.println(jedis.set("key2","value2"));System.out.println(jedis.set("key3", "value3"));System.out.println("删除键key2:"+jedis.del("key2"));System.out.println("获取键key2:"+jedis.get("key2"));System.out.println("修改key1:"+jedis.set("key1", "value1Changed"));System.out.println("获取key1的值:"+jedis.get("key1"));System.out.println("在key3后面加入值:"+jedis.append("key3", "End"));System.out.println("key3的值:"+jedis.get("key3"));System.out.println("增加多个键值对:"+jedis.mset("key01","value01","key02","value02","key03","value03"));System.out.println("获取多个键值对:"+jedis.mget("key01","key02","key03"));System.out.println("获取多个键值对:"+jedis.mget("key01","key02","key03","key04"));System.out.println("删除多个键值对:"+jedis.del("key01","key02"));System.out.println("获取多个键值对:"+jedis.mget("key01","key02","key03"));jedis.flushDB();System.out.println("===========新增键值对防止覆盖原先值==============");System.out.println(jedis.setnx("key1", "value1"));System.out.println(jedis.setnx("key2", "value2"));System.out.println(jedis.setnx("key2", "value2-new"));System.out.println(jedis.get("key1"));System.out.println(jedis.get("key2"));System.out.println("===========新增键值对并设置有效时间=============");System.out.println(jedis.setex("key3", 2, "value3"));System.out.println(jedis.get("key3"));try {  TimeUnit.SECONDS.sleep(3);} catch (InterruptedException e) {  e.printStackTrace();}System.out.println(jedis.get("key3"));System.out.println("===========获取原值,更新为新值==========");
System.out.println(jedis.getSet("key2", "key2GetSet"));System.out.println(jedis.get("key2"));System.out.println("获得key2的值的字串:"+jedis.getrange("key2", 2, 4));

 

5、List

Jedis jedis = new Jedis("127.0.0.1", 6379);jedis.flushDB();System.out.println("===========添加一个list===========");jedis.lpush("collections", "ArrayList", "Vector", "Stack", "HashMap","WeakHashMap", "LinkedHashMap");jedis.lpush("collections", "HashSet");jedis.lpush("collections", "TreeSet");jedis.lpush("collections", "TreeMap");//-1代表倒数第一个元素,-2代表倒数第二个元素,end为-1表示查询全部System.out.println("collections的内容:"+jedis.lrange("collections", 0, -1));System.out.println("collections区间0-3的元素:"+jedis.lrange("collections",0,3));System.out.println("===============================");// 删除列表指定的值 ,第二个参数为删除的个数(有重复时),后add进去的值先被删,类似于出栈System.out.println("删除指定元素个数:"+jedis.lrem("collections", 2, "HashMap"));System.out.println("collections的内容:"+jedis.lrange("collections", 0, -1));System.out.println("删除下表0-3区间之外的元素:"+jedis.ltrim("collections", 0, 3));System.out.println("collections的内容:"+jedis.lrange("collections", 0, -1));System.out.println("collections列表出栈(左端):"+jedis.lpop("collections"));System.out.println("collections的内容:"+jedis.lrange("collections", 0, -1));System.out.println("collections添加元素,从列表右端,与lpush相对应:"+jedis.rpush("collections", "EnumMap"));System.out.println("collections的内容:"+jedis.lrange("collections", 0, -1));System.out.println("collections列表出栈(右端):"+jedis.rpop("collections"));System.out.println("collections的内容:"+jedis.lrange("collections", 0, -1));System.out.println("修改collections指定下标1的内容:"+jedis.lset("collections", 1,"LinkedArrayList"));System.out.println("collections的内容:"+jedis.lrange("collections", 0, -1));System.out.println("===============================");System.out.println("collections的长度:"+jedis.llen("collections"));System.out.println("获取collections下标为2的元素:"+jedis.lindex("collections", 2));System.out.println("===============================");jedis.lpush("sortedList", "3","6","2","0","7","4");System.out.println("sortedList排序前:"+jedis.lrange("sortedList", 0, -1));System.out.println(jedis.sort("sortedList"));System.out.println("sortedList排序后:"+jedis.lrange("sortedList", 0, -1));

 

6、Set

Jedis jedis = new Jedis("127.0.0.1", 6379);jedis.flushDB();System.out.println("============向集合中添加元素(不重复)============");System.out.println(jedis.sadd("eleSet","e1","e2","e4","e3","e0","e8","e7","e5"));System.out.println(jedis.sadd("eleSet", "e6"));System.out.println(jedis.sadd("eleSet", "e6"));System.out.println("eleSet的所有元素为:"+jedis.smembers("eleSet"));System.out.println("删除一个元素e0:"+jedis.srem("eleSet", "e0"));System.out.println("eleSet的所有元素为:"+jedis.smembers("eleSet"));System.out.println("删除两个元素e7和e6:"+jedis.srem("eleSet", "e7","e6"));System.out.println("eleSet的所有元素为:"+jedis.smembers("eleSet"));
System.out.println("随机的移除集合中的一个元素:"+jedis.spop("eleSet"));System.out.println("随机的移除集合中的一个元素:"+jedis.spop("eleSet"));System.out.println("eleSet的所有元素为:"+jedis.smembers("eleSet"));System.out.println("eleSet中包含元素的个数:"+jedis.scard("eleSet"));System.out.println("e3是否在eleSet中:"+jedis.sismember("eleSet", "e3"));System.out.println("e1是否在eleSet中:"+jedis.sismember("eleSet", "e1"));System.out.println("e1是否在eleSet中:"+jedis.sismember("eleSet", "e5"));System.out.println("=================================");System.out.println(jedis.sadd("eleSet1","e1","e2","e4","e3","e0","e8","e7","e5"));System.out.println(jedis.sadd("eleSet2", "e1","e2","e4","e3","e0","e8"));//移到集合元素System.out.println("将eleSet1中删除e1并存入eleSet3中:"+jedis.smove("eleSet1","eleSet3", "e1"));System.out.println("将eleSet1中删除e2并存入eleSet3中:"+jedis.smove("eleSet1","eleSet3", "e2"));System.out.println("eleSet1中的元素:"+jedis.smembers("eleSet1"));System.out.println("eleSet3中的元素:"+jedis.smembers("eleSet3"));System.out.println("============集合运算=================");System.out.println("eleSet1中的元素:"+jedis.smembers("eleSet1"));System.out.println("eleSet2中的元素:"+jedis.smembers("eleSet2"));System.out.println("eleSet1和eleSet2的交集:"+jedis.sinter("eleSet1","eleSet2"));System.out.println("eleSet1和eleSet2的并集:"+jedis.sunion("eleSet1","eleSet2"));//eleSet1中有,eleSet2中没有System.out.println("eleSet1和eleSet2的差集:"+jedis.sdiff("eleSet1","eleSet2"));//求交集并将交集保存到dstkey的集合jedis.sinterstore("eleSet4","eleSet1","eleSet2");System.out.println("eleSet4中的元素:"+jedis.smembers("eleSet4"));

 

7、Hash

Jedis jedis = new Jedis("127.0.0.1", 6379);jedis.flushDB();Map<String,String> map = new HashMap<String,String>();map.put("key1","value1");map.put("key2","value2");map.put("key3","value3");map.put("key4","value4");//添加名称为hash(key)的hash元素jedis.hmset("hash",map);//向名称为hash的hash中添加key为key5,value为value5元素jedis.hset("hash", "key5", "value5");//return Map<String,String>System.out.println("散列hash的所有键值对为:"+jedis.hgetAll("hash"));//return Set<String>System.out.println("散列hash的所有键为:"+jedis.hkeys("hash"));//return List<String>System.out.println("散列hash的所有值为:"+jedis.hvals("hash"));System.out.println("将key6保存的值加上一个整数,如果key6不存在则添加key6:"+jedis.hincrBy("hash", "key6", 6));System.out.println("散列hash的所有键值对为:"+jedis.hgetAll("hash"));System.out.println("将key6保存的值加上一个整数,如果key6不存在则添加key6:"+jedis.hincrBy("hash", "key6", 3));System.out.println("散列hash的所有键值对为:"+jedis.hgetAll("hash"));System.out.println("删除一个或者多个键值对:"+jedis.hdel("hash", "key2"));System.out.println("散列hash的所有键值对为:"+jedis.hgetAll("hash"));System.out.println("散列hash中键值对的个数:"+jedis.hlen("hash"));System.out.println("判断hash中是否存在key2:"+jedis.hexists("hash","key2"));System.out.println("判断hash中是否存在key3:"+jedis.hexists("hash","key3"));System.out.println("获取hash中的值:"+jedis.hmget("hash","key3"));System.out.println("获取hash中的值:"+jedis.hmget("hash","key3","key4"));

 

四、SpringBoot整合

 

1、 源码分析

@Bean//我们自己可以定义一个RedisTemplate来替换默认的@ConditionalOnMissingBean(name = "redisTemplate")@ConditionalOnSingleCandidate(RedisConnectionFactory.class)public RedisTemplate<Object, Object> redisTemplate(RedisConnectionFactoryredisConnectionFactory) {  //默认的RedisTemplate没有过多的设置,redis对象都是需要序列化  //两个泛型都是Object, Object的类型,我们后续需要强制转换<String, Object>  RedisTemplate<Object, Object> template = new RedisTemplate<>();  template.setConnectionFactory(redisConnectionFactory);  return template;}@Bean//由于String类型是redis中最常用的类型,所以单独出来一个bean@ConditionalOnMissingBean@ConditionalOnSingleCandidate(RedisConnectionFactory.class)public StringRedisTemplate stringRedisTemplate(RedisConnectionFactoryredisConnectionFactory) {  StringRedisTemplate template = new StringRedisTemplate();  template.setConnectionFactory(redisConnectionFactory);  return template;}

 

2、导入依赖

<dependency>  <groupId>org.springframework.boot</groupId>  <artifactId>spring-boot-starter-data-redis</artifactId></dependency>

 

3、yaml文件

spring: redis:  host: 127.0.0.1  port: 6379  password:  jedis:   pool:    max-active: 8    max-wait: -1ms    max-idle: 500    min-idle: 0  lettuce:   shutdown-timeout: 0ms

 

4、测试类

//连接redis//    RedisConnection connection =redisTemplate.getConnectionFactory().getConnection();//    connection.flushAll();//    connection.flushAll();//redisTemplate 操作不同的数据类型,api和我们的指令是一样的//opsForValue 操作字符串 类似String//opsForList 操作list 类似ListredisTemplate.opsForValue().set("myKey","myValue");System.out.println(redisTemplate.opsForValue().get("myKey"));

 

5、RedisConfig

RedisTemplate,固定模板,可以直接使用

@Configurationpublic class RedisConfig {  @Bean  @SuppressWarnings("all")  public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactoryfactory) {    RedisTemplate<String, Object> template = new RedisTemplate<String,Object>();    template.setConnectionFactory(factory);    Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = newJackson2JsonRedisSerializer(Object.class);    ObjectMapper om = new ObjectMapper();    om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);    om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);    jackson2JsonRedisSerializer.setObjectMapper(om);    StringRedisSerializer stringRedisSerializer = newStringRedisSerializer();    // key采用String的序列化方式    template.setKeySerializer(stringRedisSerializer);    // hash的key也采用String的序列化方式    template.setHashKeySerializer(stringRedisSerializer);// value序列化方式采用jackson    template.setValueSerializer(jackson2JsonRedisSerializer);    // hash的value序列化方式采用jackson    template.setHashValueSerializer(jackson2JsonRedisSerializer);    template.afterPropertiesSet();    return template; }}

 

6、RedisUtil

在企业开发中80%都不会使用原生的方式去编写代码,使用RedisUtil

public class RedisUtil {  @Autowired  private RedisTemplate<String, Object> redisTemplate;  // =============================common============================  /**  * 指定缓存失效时间  * @param key 键  * @param time 时间(秒)  */  public boolean expire(String key, long time) {    try {      if (time > 0) {        redisTemplate.expire(key, time, TimeUnit.SECONDS);     }      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 根据key 获取过期时间  * @param key 键 不能为null  * @return 时间(秒) 返回0代表为永久有效  */  public long getExpire(String key) {    return redisTemplate.getExpire(key, TimeUnit.SECONDS); }  /**  * 判断key是否存在  * @param key 键  * @return true 存在 false不存在  */  public boolean hasKey(String key) {    try {      return redisTemplate.hasKey(key);   } catch (Exception e) {e.printStackTrace();      return false;   } }  /**  * 删除缓存  * @param key 可以传一个值 或多个  */  @SuppressWarnings("unchecked")  public void del(String... key) {    if (key != null && key.length > 0) {      if (key.length == 1) {        redisTemplate.delete(key[0]);     } else {        redisTemplate.delete((Collection<String>)CollectionUtils.arrayToList(key));     }   } }  // ============================String=============================  /**  * 普通缓存获取  * @param key 键  * @return 值  */  public Object get(String key) {    return key == null ? null : redisTemplate.opsForValue().get(key); }  /**  * 普通缓存放入  * @param key  键  * @param value 值  * @return true成功 false失败  */  public boolean set(String key, Object value) {    try {      redisTemplate.opsForValue().set(key, value);      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 普通缓存放入并设置时间  * @param key  键  * @param value 值  * @param time 时间(秒) time要大于0 如果time小于等于0 将设置无限期  * @return true成功 false 失败*/  public boolean set(String key, Object value, long time) {    try {      if (time > 0) {        redisTemplate.opsForValue().set(key, value, time,TimeUnit.SECONDS);     } else {        set(key, value);     }      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 递增  * @param key  键  * @param delta 要增加几(大于0)  */  public long incr(String key, long delta) {    if (delta < 0) {      throw new RuntimeException("递增因子必须大于0");   }    return redisTemplate.opsForValue().increment(key, delta); }  /**  * 递减  * @param key  键  * @param delta 要减少几(小于0)  */  public long decr(String key, long delta) {    if (delta < 0) {      throw new RuntimeException("递减因子必须大于0");   }    return redisTemplate.opsForValue().increment(key, -delta); }  // ================================Map=================================  /**  * HashGet  * @param key 键 不能为null  * @param item 项 不能为null  */  public Object hget(String key, String item) {    return redisTemplate.opsForHash().get(key, item); }  /**  * 获取hashKey对应的所有键值  * @param key 键* @return 对应的多个键值  */  public Map<Object, Object> hmget(String key) {    return redisTemplate.opsForHash().entries(key); }  /**  * HashSet  * @param key 键  * @param map 对应多个键值  */  public boolean hmset(String key, Map<String, Object> map) {    try {      redisTemplate.opsForHash().putAll(key, map);      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * HashSet 并设置时间  * @param key 键  * @param map 对应多个键值  * @param time 时间(秒)  * @return true成功 false失败  */  public boolean hmset(String key, Map<String, Object> map, long time) {    try {      redisTemplate.opsForHash().putAll(key, map);      if (time > 0) {        expire(key, time);     }      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 向一张hash表中放入数据,如果不存在将创建  *  * @param key  键  * @param item 项  * @param value 值  * @return true 成功 false失败  */  public boolean hset(String key, String item, Object value) {    try {      redisTemplate.opsForHash().put(key, item, value);      return true;   } catch (Exception e) {      e.printStackTrace();      return false; } }  /**  * 向一张hash表中放入数据,如果不存在将创建  *  * @param key  键  * @param item 项  * @param value 值  * @param time 时间(秒) 注意:如果已存在的hash表有时间,这里将会替换原有的时间  * @return true 成功 false失败  */  public boolean hset(String key, String item, Object value, long time) {    try {      redisTemplate.opsForHash().put(key, item, value);      if (time > 0) {        expire(key, time);     }      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 删除hash表中的值  *  * @param key 键 不能为null  * @param item 项 可以使多个 不能为null  */  public void hdel(String key, Object... item) {    redisTemplate.opsForHash().delete(key, item); }  /**  * 判断hash表中是否有该项的值  *  * @param key 键 不能为null  * @param item 项 不能为null  * @return true 存在 false不存在  */  public boolean hHasKey(String key, String item) {    return redisTemplate.opsForHash().hasKey(key, item); }  /**  * hash递增 如果不存在,就会创建一个 并把新增后的值返回  *  * @param key 键  * @param item 项  * @param by  要增加几(大于0)  */  public double hincr(String key, String item, double by) {    return redisTemplate.opsForHash().increment(key, item, by);}  /**  * hash递减  *  * @param key 键  * @param item 项  * @param by  要减少记(小于0)  */  public double hdecr(String key, String item, double by) {    return redisTemplate.opsForHash().increment(key, item, -by); }  // ============================set=============================  /**  * 根据key获取Set中的所有值  * @param key 键  */  public Set<Object> sGet(String key) {    try {      return redisTemplate.opsForSet().members(key);   } catch (Exception e) {      e.printStackTrace();      return null;   } }  /**  * 根据value从一个set中查询,是否存在  *  * @param key  键  * @param value 值  * @return true 存在 false不存在  */  public boolean sHasKey(String key, Object value) {    try {      return redisTemplate.opsForSet().isMember(key, value);   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 将数据放入set缓存  *  * @param key  键  * @param values 值 可以是多个  * @return 成功个数  */  public long sSet(String key, Object... values) {    try {      return redisTemplate.opsForSet().add(key, values);} catch (Exception e) {      e.printStackTrace();      return 0;   } }  /**  * 将set数据放入缓存  *  * @param key  键  * @param time  时间(秒)  * @param values 值 可以是多个  * @return 成功个数  */  public long sSetAndTime(String key, long time, Object... values) {    try {      Long count = redisTemplate.opsForSet().add(key, values);      if (time > 0)        expire(key, time);      return count;   } catch (Exception e) {      e.printStackTrace();      return 0;   } }  /**  * 获取set缓存的长度  *  * @param key 键  */  public long sGetSetSize(String key) {    try {      return redisTemplate.opsForSet().size(key);   } catch (Exception e) {      e.printStackTrace();      return 0;   } }  /**  * 移除值为value的  *  * @param key  键  * @param values 值 可以是多个  * @return 移除的个数  */  public long setRemove(String key, Object... values) {    try {      Long count = redisTemplate.opsForSet().remove(key, values);      return count;   } catch (Exception e) {      e.printStackTrace();      return 0; } }  // ===============================list=================================  /**  * 获取list缓存的内容  *  * @param key  键  * @param start 开始  * @param end  结束 0 到 -1代表所有值  */  public List<Object> lGet(String key, long start, long end) {    try {      return redisTemplate.opsForList().range(key, start, end);   } catch (Exception e) {      e.printStackTrace();      return null;   } }  /**  * 获取list缓存的长度  *  * @param key 键  */  public long lGetListSize(String key) {    try {      return redisTemplate.opsForList().size(key);   } catch (Exception e) {      e.printStackTrace();      return 0;   } }  /**  * 通过索引 获取list中的值  *  * @param key  键  * @param index 索引 index>=0时, 0 表头,1 第二个元素,依次类推;index<0时,-1,表尾,-2倒数第二个元素,依次类推  */  public Object lGetIndex(String key, long index) {    try {      return redisTemplate.opsForList().index(key, index);   } catch (Exception e) {      e.printStackTrace();      return null;   } }  /**  * 将list放入缓存  *  * @param key  键* @param value 值  */  public boolean lSet(String key, Object value) {    try {      redisTemplate.opsForList().rightPush(key, value);      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 将list放入缓存  * @param key  键  * @param value 值  * @param time 时间(秒)  */  public boolean lSet(String key, Object value, long time) {    try {      redisTemplate.opsForList().rightPush(key, value);      if (time > 0)        expire(key, time);      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 将list放入缓存  *  * @param key  键  * @param value 值  * @return  */  public boolean lSet(String key, List<Object> value) {    try {      redisTemplate.opsForList().rightPushAll(key, value);      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 将list放入缓存  *  * @param key  键  * @param value 值  * @param time 时间(秒)* @return  */  public boolean lSet(String key, List<Object> value, long time) {    try {      redisTemplate.opsForList().rightPushAll(key, value);      if (time > 0)        expire(key, time);      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 根据索引修改list中的某条数据  *  * @param key  键  * @param index 索引  * @param value 值  * @return  */  public boolean lUpdateIndex(String key, long index, Object value) {    try {      redisTemplate.opsForList().set(key, index, value);      return true;   } catch (Exception e) {      e.printStackTrace();      return false;   } }  /**  * 移除N个值为value  *  * @param key  键  * @param count 移除多少个  * @param value 值  * @return 移除的个数  */  public long lRemove(String key, long count, Object value) {    try {      Long remove = redisTemplate.opsForList().remove(key, count, value);      return remove;   } catch (Exception e) {      e.printStackTrace();      return 0;   } }}

 

五、redis.conf详解

 

单位,大小写不敏感

# Note on units: when memory size is needed, it is possible to specify# it in the usual form of 1k 5GB 4M and so forth:## 1k => 1000 bytes# 1kb => 1024 bytes# 1m => 1000000 bytes# 1mb => 1024*1024 bytes# 1g => 1000000000 bytes# 1gb => 1024*1024*1024 bytes## units are case insensitive so 1GB 1Gb 1gB are all the same.

 

包含

# include /path/to/local.conf# include /path/to/other.conf

 

网络

#绑定IPbind 127.0.0.1#保护模式protected-mode yes#端口设置port 6379

 

通用配置

#以守护进程的方式运行,默认是no,我们需要自己开启为yesdaemonize yes#如果是以后台的方式运行,我们需要自己开启一个pid文件pidfile /var/run/redis_6379.pid#日志# Specify the server verbosity level.# This can be one of:# debug (a lot of information, useful for development/testing)# verbose (many rarely useful info, but not a mess like the debug level)# notice (moderately verbose, what you want in production probably) 生产环境# warning (only very important / critical messages are logged)loglevel notice#日志的文件位置名logfile ""#数据库的数量,默认是16的数据库databases 16#总是显示Logoalways-show-logo yes

 

快照,持久化:在指定时间内,执行了多少次操作,则会持久化到文件.rdb.aof

redis是内存数据库,如果没有持久化,那么数据断电即失

#如果900s内,至少有1个key进行了修改,我们及进行持久化操作save 900 1#300,至少有10个key进行了修改,我们及进行持久化操作save 300 10#60,至少有10000个key进行了修改,我们及进行持久化操作save 60 10000#持久化如果出错,是否还需要继续工作stop-writes-on-bgsave-error yes#是否压缩rdb文件,需要消耗一些cpu资源rdbcompression yes#保存rdb文件的时候是否进行错误的检查校验rdbchecksum yes#rdb文件保存的目录dir ./

 

SECURITY 安全

#查看和设置redis密码127.0.0.1:6379> config get requirepass1) "requirepass"2) ""127.0.0.1:6379> config set requirepass "1234"OK#登录redis127.0.0.1:6379> auth 1234OK

 

CLIENTS 设置客户端

#设置能够连接redis的客户端登录数量maxclients 10000#redis配置最大内存maxmemory <bytes>#内存到达上限后的处理策略maxmemory-policy noeviction1、volatile-lru:只对设置了过期时间的key进行LRU(默认值)2、allkeys-lru :删除lru算法的key3、volatile-random:随机删除即将过期key4、allkeys-random:随机删除 5、volatile-ttl :删除即将过期的 6、noeviction :永不过期,返回错误

 

APPEND ONLY MODE aof配置

#默认是不开启aof的,默认是使用rdb方式持久化的,在大部分的情况下rdb完全够用appendonly no#持久化文件的名字appendfilename "appendonly.aof"# appendfsync always #每次修改都会sync,消耗性能appendfsync everysec #每秒执行一次sync,可能会对视着1s的数据# appendfsync no #不执行sunc,这个时候操作系统会自己同步数据,速度最快

 

六、Redis持久化

 

1、RDB

 

什么是RDB

 

图片

 

在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里。Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文 件替换.上次持久化好的文件。整个过程中,主进程是不进行任何I0操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丟失。

RDB持久化是把当前进程数据生成快照保存到硬盘的过程,触发RDB持久化过程分为手动触发和自动触

发rdb保存的文件时dump.rdb 都是在我们配置文件快照中进行配置的

 

触发机制

 

  • save的规则满足的情况下,会自动触发rdb规则

  • 执行flushall命令,也会触发

  • 退出redis

 

图片

 

如何恢复rdb文件

1. 将dump.rdb放在我们的redis启动目录下就可以,redis启动的时候会自动检查dump.rdb恢复数据2. 查看需要存在的位置127.0.0.1:6379> config get dir1) "dir"2) "/usr/local/bin"

 

优缺点

 

  • 优点:

     适合大规模的数恢复

    对数据的完整性要求不高

  • 缺点:

    需要一定的时间间隔进程操作,如果redis意外宕机了,这个最后一场修改数据就没有了

    fork进程的时候会占用一定的内容空间

 

2、AOF(Append Only File)

 

将我们的所有命令记录下来,恢复的时候就把这个文件里面的命令全部执行一遍

图片

 

以日志的形式来记录每个写操作,将Redis执行过得所有指令记录下来(读操作不记录),只追加文件但不可以改写文件,redis启动之初读取该文件重新构建数据库,即redis重启的话根据日志文件的内容将写指令从前到后执行一次完成数据库的恢复工作

 

优缺点

 

  • 优点
    每一次修改都要同步,文件的完整性更好
    每秒同步一次,可能会丢失这一秒的数据
    从不同步,效率最高

  • 缺点
    相对于数据文件,AOF远远大于RDB,修复速度也比rdb慢
    AOF效率也比RDB慢

 

七、发布和订阅消息

 

  • 使用 subscribe 频道名 进行订阅监听

  • 使用 publish 频道名 发布的内容 进行发布消息广播;

 

订阅监听

127.0.0.1:6379> subscribe wangqinReading messages... (press Ctrl-C to quit)1) "subscribe"2) "wangqin"3) (integer) 11) "message"2) "wangqin"3) "hello, qin"

 

发布消息广播

127.0.0.1:6379> publish wangqin "hello, qin"(integer) 1

 

八、主从复制

 

1、主从复制

 

主从复制,是指将一台Redis服务器的数据 ,复制到其他的Redis服务器I前者称为主节点(master/leader),

后者称为从节点(slave/follower)数据的复制是单向的,只能由主节点到从节点,Master以写为主, Slave

以读为主。

默认情况下,每台Redis服务器都是主节点,且一个主节点可以有多个从节点(或没有从节点) ,但一个从节

点只能有一一个主节点。主从复制的作用主要包括:

 

  • 数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。

  • 故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。

  • 负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点) , 分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。

  • 高可用基石:除了.上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。一般来说,要将Redis运用于工程项目中,只使用一台Redis是万万不能的,原因如下:

  • 从结构上,单个Redis服务器会发生单点故障,并且一台服务器需要处理所有的请求负载,压力较大;

  • 从容量上,单个Redis服务器内存容量有限,就算一台Redis服务器内存容量为256G ,也不能将所有内存用作Redis存储内存, 一般来说 ,单台Redis最大使用内存不应该超过20G。电商网站上的商品,一般都是一次上传,无数次浏览的,说专业点也就是"多读少写"

图片

 

[root@qin bin]# redis-cli -p 6380127.0.0.1:6380> info replication# Replicationrole:master  #主机connected_slaves:2  #从机两个 6379和6380slave0:ip=127.0.0.1,port=6379,state=online,offset=266,lag=1slave1:ip=127.0.0.1,port=6381,state=online,offset=266,lag=1master_replid:ee9893cc165118d4639a473c3db9bb55b7e29248master_replid2:0000000000000000000000000000000000000000master_repl_offset:266second_repl_offset:-1repl_backlog_active:1repl_backlog_size:1048576repl_backlog_first_byte_offset:1repl_backlog_histlen:266

 

主从复制配置过程

redis-cli应用中配置主从 slaveof 127.0.0.1 6380这里以主服务器:192.168.238.143 ;从服务器:192.168.238.144 为例;配置从服务器的 redis.conf ,添加:配置主机:replicaof 127.0.0.1 6380密码:masterauth <master-password>配置从机只能做读操作 replica-read-only yes如果主机断开连接,从机依旧连接到主机的,但是没有写操作。如果主机回来,从机依旧可以直接获取到主机写的信息

复制原理

Slave启动成功连接到master后会发送一个sync同步命令Master接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,并完成一次完全同步。全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。[root@qin bin]# redis-cli -p 6380127.0.0.1:6380> info replication# Replicationrole:master  #主机connected_slaves:2  #从机两个 6379和6380slave0:ip=127.0.0.1,port=6379,state=online,offset=266,lag=1slave1:ip=127.0.0.1,port=6381,state=online,offset=266,lag=1master_replid:ee9893cc165118d4639a473c3db9bb55b7e29248master_replid2:0000000000000000000000000000000000000000master_repl_offset:266second_repl_offset:-1repl_backlog_active:1repl_backlog_size:1048576repl_backlog_first_byte_offset:1repl_backlog_histlen:266增量复制:Master继续将新的所有收集到的修改命令依次传给slave,完成同步但是只要是重新连接master,一次完全同步(全量复制)将被自动执行

层层链路

图片

 

2、哨兵模式

 

假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover过程,仅仅是哨兵1主观的认为主服务器不可用,这个现象成为主观下线。当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行failover[故障转移]操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下

 

主要是在 Redis 2.0 中的,用于对主服务器进行监控功能一:监控主数据库和从数据库是否正常运行;功能二:主数据库出现故障时候,可以自动将从数据库转换为主数据库,实现自动切换;实现步骤:修改从服务器的 sentinel.confsentinel monitor myredis 192.168.238.143 6379 1 # 主数据库名称、IP、端口、投票选举次数sentinel down-after-milliseconds myredis 5000 #默认 1 秒检查一次,这里配置超5000 毫秒为宕机;sentinel failover-timeout myredis 900000sentinel parallel-syncs myredis 2sentinel can-failover myredis yes


启动 sentinel 哨兵

[root@qin bin]# redis-sentinel qconfig/sentinel.conf72466:X 08 Dec 2020 02:41:53.764 # oO0OoO0OoO0Oo Redis is startingoO0OoO0OoO0Oo72466:X 08 Dec 2020 02:41:53.764 # Redis version=5.0.7, bits=64,commit=00000000, modified=0, pid=72466, just started72466:X 08 Dec 2020 02:41:53.764 # Configuration loaded       _._                              _.-``__ ''-._                        _.-``   `. `_.  ''-._      Redis 5.0.7 (00000000/0) 64 bit.-`` .-```. ```\/  _.,_ ''-._                 (   '   ,    .-` | `,  )   Running in sentinel mode|`-._`-...-` __...-.``-._|'` _.-'|   Port: 26379|   `-._  `._  /   _.-'  |   PID: 72466 `-._  `-._  `-./ _.-'  _.-'                 |`-._`-._   `-.__.-'  _.-'_.-'|                 |   `-._`-._    _.-'_.-'  |      http://redis.io     `-._  `-._`-.__.-'_.-'  _.-'                 |`-._`-._   `-.__.-'  _.-'_.-'|                 |   `-._`-._    _.-'_.-'  |                  `-._  `-._`-.__.-'_.-'  _.-'                    `-._  `-.__.-'  _.-'                        `-._    _.-'                            `-.__.-'                       72466:X 08 Dec 2020 02:41:53.765 # WARNING: The TCP backlog setting of 511cannot be enforced because /proc/sys/net/core/somaxconn is set to the lowervalue of 128.72466:X 08 Dec 2020 02:41:53.765 # Sentinel ID isdf5d73e7709db2ce099fa9b7432a58281b982f4872466:X 08 Dec 2020 02:41:53.765 # +monitor master myredis 127.0.0.1 6380quorum 1

 

若主机断开了,哨兵会选举一个从机作为主机。如果主机后来回来了,只能归并到新的主机下当做从机。

  • 优点:

    哨兵集群,基于主从复制模式,所有的主从配置优点,它全有。

    主从可以切换 ,故障可以转移,系统的可用性就会更好。

    哨兵模式就是主从模式的升级,手动到自动,更加健壮。

  • 缺点:

    Redis 不好啊在线扩容的,集群容量一旦到达上限,在线扩容就十分麻烦!实现哨兵模式的配置其实是很麻烦的,里面有很多选择

图片

 

假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover故障转移过程,仅仅是哨兵1

主观的认为主服务器不可用,这个现象成为主观下线。当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行failover[故障转移]操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线。

 

配置文件

# Example sentinel.conf # 哨兵sentinel实例运行的端口 默认26379 port 26379 # 哨兵sentinel的工作目录 dir /tmp # 哨兵sentinel监控的redis主节点的 ip port # master-name 可以自己命名的主节点名字 只能由字母A-z、数字0-9 、这三个字符".-_"组成。 # quorum 当这些quorum个数sentinel哨兵认为master主节点失联 那么这时 客观上认为主节点失联了# sentinel monitor <master-name> <ip> <redis-port> <quorum> sentinel monitor mymaster 127.0.0.1 6379 2 # 当在Redis实例中开启了requirepass foobared 授权密码 这样所有连接Redis实例的客户端都要提供密码 # 设置哨兵sentinel 连接主从的密码 注意必须为主从设置一样的验证密码 # sentinel auth-pass <master-name> <password> sentinel auth-pass mymaster MySUPER--secret-0123password # 指定多少毫秒之后 主节点没有应答哨兵sentinel 此时 哨兵主观上认为主节点下线 默认30秒 # sentinel down-after-milliseconds <master-name> <milliseconds> sentinel down-after-milliseconds mymaster 30000 # 这个配置项指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行 同步, 这个数字越小,完成failover所需的时间就越长, 但是如果这个数字越大,就意味着越 多的slave因为replication而不可用。 可以通过将这个值设为 1 来保证每次只有一个slave 处于不能处理命令请求的状态。 # sentinel parallel-syncs <master-name> <numslaves>
sentinel parallel-syncs mymaster 1 # 故障转移的超时时间 failover-timeout 可以用在以下这些方面: #1. 同一个sentinel对同一个master两次failover之间的间隔时间。 #2. 当一个slave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确的master那里同步数据时。 #3.当想要取消一个正在进行的failover所需要的时间。 #4.当进行failover时,配置所有slaves指向新的master所需的最大时间。不过,即使过了这个超时,slaves依然会被正确配置为指向master,但是就不按parallel-syncs所配置的规则来了 # 默认三分钟 # sentinel failover-timeout <master-name> <milliseconds> sentinel failover-timeout mymaster 180000 # SCRIPTS EXECUTION #配置当某一事件发生时所需要执行的脚本,可以通过脚本来通知管理员,例如当系统运行不正常时发邮件通知相关人员。 #对于脚本的运行结果有以下规则: #若脚本执行后返回1,那么该脚本稍后将会被再次执行,重复次数目前默认为10 #若脚本执行后返回2,或者比2更高的一个返回值,脚本将不会重复执行。 #如果脚本在执行过程中由于收到系统中断信号被终止了,则同返回值为1时的行为相同。 #一个脚本的最大执行时间为60s,如果超过这个时间,脚本将会被一个SIGKILL信号终止,之后重新执行。#通知型脚本:当sentinel有任何警告级别的事件发生时(比如说redis实例的主观失效和客观失效等等),将会去调用这个脚本, 这时这个脚本应该通过邮件,SMS等方式去通知系统管理员关于系统不正常运行的信息。调用该脚本时,将传给脚本两个参数, 一个是事件的类型, 一个是事件的描述。 如果sentinel.conf配置文件中配置了这个脚本路径,那么必须保证这个脚本存在于这个路径,并且是可执行的,否则sentinel无法正常启动成功。 #通知脚本 # sentinel notification-script <master-name> <script-path> sentinel notification-script mymaster /var/redis/notify.sh # 客户端重新配置主节点参数脚本 # 当一个master由于failover而发生改变时,这个脚本将会被调用,通知相关的客户端关于master地址已经发生改变的信息。 # 以下参数将会在调用脚本时传给脚本: # <master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port> # 目前<state>总是“failover”, # <role>是“leader”或者“observer”中的一个。 # 参数 from-ip, from-port, to-ip, to-port是用来和旧的master和新的master(即旧的slave)通信的 # 这个脚本应该是通用的,能被多次调用,不是针对性的。 # sentinel client-reconfig-script <master-name> <script-path> sentinel client-reconfig-script mymaster /var/redis/reconfig.sh  

 

九、Redis缓存穿透和雪崩

 

Redis缓存的使用,极大的提升了应用程序的性能和效率,特别是数据查询方面。但同时,它也带来了一些问题。其中,最要害的 问题,就是数据的一致性问题,从严格意义上讲,这个问题无解。如果对数据的一致性要求很高,那么就不能使用缓存。

另外的一些典型问题就是,缓存穿透、缓存雪崩和缓存击穿。目前,业界也都有比较流行的解决方案。

 

1、缓存穿透(查不到)

 

概念

缓存穿透的概念很简单,用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发 现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中(秒

杀),于是都去请求了持久层数据库。这会给持久层数据库造成很 大的压力,这时候就相当于出现了缓存

 

解决方案

 

布隆过滤器

当存储层不命中后,即使返回的空对象也要将其缓存起来,同时设置一个过期时间,之后再访问这个数

据库将会从缓存中获取,保护了后端数据库

但是这种方法会存在两个问题:

 

  • 如果空值能够被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多的空值的键;

  • 即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对于需要保持一致性的业务会 有影响。

 

2、缓存击穿(量太大)

 

概述

 

这里需要注意和缓存击穿的区别,缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞。当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数 据,并且回写缓存,会导使数据库瞬间压力过大。

 

解决方案

 

设置热点数据永不过期从缓存层面来看,没有设置过期时间,所以不会出现热点key过期后产生的问题。加互斥锁

分布式锁:使用分布式锁,保证对于每个key同时只有一一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大。

 

3、缓存雪崩

 

概念

 

缓存雪崩,是指在某一个时间段,缓存集中过期失效。Redis宕机!

产生雪崩的原因之一,比如在写本文的时候,马上就要到双十二零点,很快就会迎来一波抢购,这波商品时间比较集中的放入了缓 存,假设缓存一个小时。那么到了凌晨一点钟的时候,这批商品的缓存就都过期了。而对这批商品的访问查询,都落到了数据库 上,对于数据库而言,就会产生周期性的压力波峰。于是所有的请求都会达到存储层,存储层的调用量会暴增,造成存储层也会挂 掉的情况。

 

解决方案

 

redis高可用

这个思想的含义是,既然redis有可能挂掉,那我多增设几台redis ,这样-台挂掉之后其他的还可以继续工作,其实就是搭建的集 群。(异地多活!|)

限流降级

这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量。比如对某个key只允许一个线程查 询数据和写缓存,其他线程等待。

数据预热.

数据加热的含义就是在正式部署之前,我先把可能的数据先预先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即. 将发生大并发访问前手动触发加载缓存不同的key ,设置不同的过期时间,让缓存失效的时间点尽量均匀。

 

十、redis 在项目中的应用

 

1、redis缓存注解

 

  • @Cacheable:根据方法对其返回结果进行缓存,下次请求时,如果缓存存在,则直接读取缓存数据返回;如果缓存不存在,则执行方法,并把返回的结果存入缓存中,一般用在查询方法上。

  • value:缓存名,必填,它指定了你的缓存存放在哪块命名空间

  • cacheNames:与 value 差不多,二选一即可

  • key:可选属性,可以使用 SpEL 标签自定义缓存的key

  • @CachePut:使用该注解标志的方法,每次都会执行,并将结果存入指定的缓存中。其他方法可以直接从响应的缓存中读取缓存数据,而不需要再去查询数据库,一般用在新增方法上。

  • value:缓存名,必填,它指定了你的缓存存放在哪块命名空间

  • cacheNames:与 value 差不多,二选一即可

  • key:可选属性,可以使用 SpEL 标签自定义缓存的key

  • @CacheEvict:使用该注解标志的方法,会清空指定的缓存,一般用在更新或者删除方法上

  • value:缓存名,必填,它指定了你的缓存存放在哪块命名空间

  • cacheNames:与 value 差不多,二选一即可

  • key:可选属性,可以使用 SpEL 标签自定义缓存的key

  • allEntries:是否清空所有缓存,默认为 false。如果指定为 true,则方法调用后将立即清空所有的缓存

  • beforeInvocation:是否在方法执行前就清空,默认为 false。如果指定为 true,则在方法执行前就会清空缓存

 

2、环境配置

<!-- redis --><dependency>  <groupId>org.springframework.boot</groupId>  <artifactId>spring-boot-starter-data-redis</artifactId></dependency><!-- spring2.X集成redis所需common-pool2 --><dependency>  <groupId>org.apache.commons</groupId>  <artifactId>commons-pool2</artifactId>  <version>2.6.0</version></dependency>

 

在service-base模块添加redis配置类

@EnableCaching //开启缓存@Configuration //配置类public class RedisConfig extends CachingConfigurerSupport {  @Bean  public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactoryfactory) {    RedisTemplate<String, Object> template = new RedisTemplate<>();    RedisSerializer<String> redisSerializer = new StringRedisSerializer();    Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = newJackson2JsonRedisSerializer(Object.class);    ObjectMapper om = new ObjectMapper();    om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);    om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);    jackson2JsonRedisSerializer.setObjectMapper(om);    template.setConnectionFactory(factory);    //key序列化方式    template.setKeySerializer(redisSerializer);    //value序列化    template.setValueSerializer(jackson2JsonRedisSerializer);    //value hashmap序列化    template.setHashValueSerializer(jackson2JsonRedisSerializer);    return template; }  @Bean  public CacheManager cacheManager(RedisConnectionFactory factory) {    RedisSerializer<String> redisSerializer = new StringRedisSerializer();    Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = newJackson2JsonRedisSerializer(Object.class);    //解决查询缓存转换异常的问题    ObjectMapper om = new ObjectMapper();    om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);    om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);    jackson2JsonRedisSerializer.setObjectMapper(om);    // 配置序列化(解决乱码的问题),过期时间600秒    RedisCacheConfiguration config =RedisCacheConfiguration.defaultCacheConfig().entryTtl(Duration.ofSeconds(600))      .serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(redisSerializer))     .serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(jackson2JsonRedisSerializer)).disableCachingNullValues();    RedisCacheManager cacheManager = RedisCacheManager.builder(factory)     .cacheDefaults(config)     .build();    return cacheManager; }}

 

Linux启动Redis要修改的配置

 

  • 关闭Linux防火墙

  • 配置文件注释:# bind 127.0.0.1

  • protected-mode no

 

3、banner接口改造

 

由于首页数据变化不是很频繁,而且首页访问量相对较大,所以我们有必要把首页接口数据缓存到redis缓存中,减少数据库压力和提高访问速度。

改造service-cms模块首页banner接口,首页课程与讲师接口类似

 

properies文件配置,在service-cms模块配置文件添加redis配置

spring.redis.host=120.55.59.163spring.redis.port=6379spring.redis.database= 0spring.redis.timeout=1800000spring.redis.lettuce.pool.max-active=20spring.redis.lettuce.pool.max-wait=-1#最大阻塞等待时间(负数表示没限制)spring.redis.lettuce.pool.max-idle=5spring.redis.lettuce.pool.min-idle=0

修改CrmBannerServiceImpl,添加redis缓存注解

@Servicepublic class CrmBannerServiceImpl extends ServiceImpl<CrmBannerMapper,CrmBanner> implements CrmBannerService {  /**  * 查询所有banner  * @return  */  @Cacheable(value = "banner",key = "'selectIndexList'")  @Override  public List<CrmBanner> selectAllBanner() {    //根据id进行降序排列,显示排列之后前两条记录    QueryWrapper<CrmBanner> wrapper = new QueryWrapper<>();    wrapper.orderByDesc("id");    //last方法,拼接sql语句    wrapper.last("limit 2");    List<CrmBanner> list = baseMapper.selectList(null);    return list; }}

在redis添加了key

127.0.0.1:6379> keys *1) "banner::selectIndexList"2) "name"127.0.0.1:6379> get banner::selectIndexList"[\"java.util.ArrayList\",[[\"com.wq.educms.entity.CrmBanner\",{\"id\":\"1194556896025845762\",\"title\":\"test1\",\"imageUrl\":\"https://online-teach-file.oss-cn-beijing.aliyuncs.com/cms/2019/11/14/297acd3b-b592-4cfb-a446-a28310369675.jpg\",\"linkUrl\":\"/course\",\"sort\":1,\"isDeleted\":false,\"gmtCreate\":[\"java.util.Date\",1573639532000],\"gmtModified\":[\"java.util.Date\",1574044102000]}],[\"com.wq.educms.entity.CrmBanner\",{\"id\":\"1194607458461216769\",\"title\":\"test2\",\"imageUrl\":\"https://online-teach-file.oss-cn-beijing.aliyuncs.com/cms/2019/11/13/8f80790d-d736-4842-a6a4-4dcb0d684d4e.jpg\",\"linkUrl\":\"/teacher\",\"sort\":2,\"isDeleted\":false,\"gmtCreate\":[\"java.util.Date\",1573651587000],\"gmtModified\":[\"java.util.Date\",1573693935000]}]]]"

 

简单分享快乐学习,如有错误请多包涵!

 

觉得还可以的话点个在看可好?感谢 !

阅读 73
 

posted @ 2022-03-31 10:45  7heOne  阅读(80)  评论(0编辑  收藏  举报