分布式锁结合SpringCache
1、高并发缓存失效问题:
缓存穿透:
指查询一个一定不存在的数据,由于缓存不命中导致去查询数据库,但数据库也无此记录,我们没有将此次查询的null写入缓存,导致这个不存在的数据每次请求都要到存储层进行查询,失去了缓存的意义;
风险:利用不存在的数据进行攻击让数据库压力增大最终崩溃;
解决:对不存在的数据进行缓存并加入短暂的过期时间;
缓存雪崩:
缓存雪崩是指我们在设置缓存时key采用相同的过期时间,导致缓存在某一个时刻同时失效,请求全部转发到DB,DB瞬间压力过重雪崩;
解决:原有的失效时间基础上增加一个随机值;
缓存击穿:
对于一些设置过期时间的key,如果这些key会在某个时间被高并发地访问,是一种非常“热点”的数据;如果这个key在大量请求同时进来前正好失效,那么所有对这个key的数据查询都落在db,我们称之为缓存击穿
解决:加锁。大量并发情况下只让一个人去查,其他人等到,查到数据后释放锁,其他人获取到锁后先查缓存,这样就不会出现大量访问DB的情况。
2、加锁解决击穿问题
2.1、加本地锁
“确认缓存”与“查询数据库”完成后才释放锁,图示:
改进后(将“确认缓存”、“查数据库”、“结果放入数据库“都放入锁中):
代码部分:
public Map<String, List<Catalog2Vo>> getCatalogJsonFromDbWithLocalLock() {
//加锁,只要是同一把锁就锁柱所有线程,例如:100w个请求用同意一把锁
synchronized (this) {
//得到锁后再去缓冲中查看,如果缓存没有再去查看,有则直接取缓存。但是使用“this”只能锁住本地服务,所以要使用分布式锁
return getDataFromDb();
}
}
private Map<String, List<Catalog2Vo>> getDataFromDb() {
//得到锁后再去缓冲中查看,如果缓存没有再去查看,有则直接取缓存。但是使用“this”只能锁住本地服务,所以要使用分布式锁
String catalogJSON = redisTemplate.opsForValue().get("catalogJSON");
if (!StringUtils.isEmpty(catalogJSON)) {
//如果缓存不为空直接返回
Map<String, List<Catalog2Vo>> result = JSON.parseObject(catalogJSON, new TypeReference<Map<String, List<Catalog2Vo>>>() {
});
return result;
}
System.out.println("查了数据库");
/* Map<String, List<Catalog2Vo>> catelogJson = (Map<String, List<Catalog2Vo>>) cache.get("catelogJson"); if (cache.get("catelogJson") == null){ }*/
List<CategoryEntity> selectList = baseMapper.selectList(null);
//1、先查出所有分类
/**
* 一级结构:
* id:[
* {二级内容}
* {二级内容}
* ]
*/
//List<CategoryEntity> level1Categorys = getLevel1Categorys();
List<CategoryEntity> level1Categorys = getParent_cid(selectList, 0L); //2、封装数据,二级结构
/**
* "catalog1Id":
* "catalog3List":[三级内容]
* "id": "",(二级id)
* "name": ""(二级名字)
* @return
*/
Map<String, List<Catalog2Vo>> parent_cid = level1Categorys.stream().collect(Collectors.toMap(k -> k.getCatId().toString(), v -> {
//1、查到2级分类
//List<CategoryEntity> categoryEntities = baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", v.getCatId()));
List<CategoryEntity> categoryEntities = getParent_cid(selectList, v.getCatId());
List<Catalog2Vo> catalog2Vos = null;
if (categoryEntities != null) {
catalog2Vos = categoryEntities.stream().map(l2 -> {
Catalog2Vo catalog2Vo = new Catalog2Vo(v.getCatId().toString(), null, l2.getCatId().toString(), l2.getName());
/**
* 三级内容:
* {
* "catalog2Id": "",(二级id)
* "id": "",(三级id)
* "name": "商务休闲鞋"(三级名字)
* },
*/
//List<CategoryEntity> level3Catalog = getParent_cid(l2);
List<CategoryEntity> level3Catalog = getParent_cid(selectList, l2.getCatId());
if (level3Catalog != null) {
List<Catalog2Vo.Catalog3Vo> collect = level3Catalog.stream().map(l3 -> {
Catalog2Vo.Catalog3Vo catalog3Vo = new Catalog2Vo.Catalog3Vo(l2.getCatId().toString(), l3.getCatId().toString(), l3.getName());
return catalog3Vo;
}).collect(Collectors.toList());
catalog2Vo.setCatalog3List(collect);
}
return catalog2Vo;
}).collect(Collectors.toList());
}
return catalog2Vos;
})); //3、放入缓存中
String s = JSON.toJSONString(parent_cid);
//1, TimeUnit.DAYS 空结果缓存:解决缓存穿透;设计过期时间:解决雪崩
redisTemplate.opsForValue().set("catalogJSON", s, 1, TimeUnit.DAYS);
return parent_cid;
}
3、分布式锁原理与使用
由于本地锁只能管理本地服务的事务,所以在分布式微服务中引进了分布式锁
1、分布式锁演进:
1.1、分布式锁阶段一:
1.2、分布式锁阶段二:
1.3、 分布式锁阶段三:
1.4、分布式锁阶段四:
1.5、演进代码:
public Map<String, List<Catalog2Vo>> getCatalogJsonFromDbWithRedisLock() {
//1、占分布式锁,去redis占坑同时加锁成功(原子性),设置过期时间(30秒)。假设过程出问题直接过期不会发生死锁,改进第阶段1和阶段2,使用setIfAbsent原子命令将获取锁和过期时间同时设置
String uuid = UUID.randomUUID().toString();
Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", uuid, 300, TimeUnit.SECONDS);
if (lock) {
System.out.println("获取分布式锁成功");
Map<String, List<Catalog2Vo>> dataFromDb;
try {
//执行业务
dataFromDb = getDataFromDb();
} finally {
//删除锁.redisTemplate.opsForValue().get("lock")获取需要时间释放锁,存在“不可重复读”,所以获取后删除过程也要要求原子性;
/* String lockValue = redisTemplate.opsForValue().get("lock");
if (uuid.equals(lockValue)){
redisTemplate.delete("lock");
}*/
//使用脚本,改进阶段4
String script = "if redis.call('get',KEYS[1]) == ARGV[1] then return redis.call('del',KEYS[1]) else return 0 end";
// public <T> T execute(RedisScript<T> script, List<K> keys, Object... args)
// 采用随机的uuid值,改进阶段3
Long lock1 = redisTemplate.execute(new DefaultRedisScript<Long>(script, Long.class), Arrays.asList("lock"), uuid);
}
return getDataFromDb(); } else {
System.out.println("获取分布式锁失败");
try {
Thread.sleep(200);
} catch (Exception e) { }
//加锁失败,设定时间进行重试
return getCatalogJsonFromDbWithRedisLock();//自旋方式
} }
4、Redisson实践:
1、Redisson官方文档:
https://github.com/redisson/redisson/wiki/Table-of-Content
2、Redisson可重用锁:
@ResponseBody
@GetMapping("/hello")
public String hello(){
RLock lock= redisson.getLock("my-lock");
lock.lock(10, TimeUnit.SECONDS);//这种方法不会自动续期
//Redisson功能:
//1、可以锁的自动续期,如果业务超长,因此不用担心业务时间过长自动删锁
//2、枷锁业务只要运行完成,就不会给当业务续期。默认是30s后自动删锁
try{
//模拟业务超长执行
System.out.println("加锁成功"+Thread.currentThread().getId());
Thread.sleep(30000);
} catch (InterruptedException e) {
e.printStackTrace();
} finally {
lock.unlock();
}
return "hello";
}
3、缓存数据与数据库保持一致性:
/**
* @return 缓存一致性
* 1、双写模式:数据库修改时修改缓存数据,高并发情况下对数据库进行修改容易出现脏数据
* 2、失效模式:数据库更新时删除缓存数据,等待下次查询进行更新缓存
*/
public Map<String, List<Catalog2Vo>> getCatalogJsonFromDbWithRedissonLock() {
//1、占分布式锁,去redis占坑,锁的粒度越大,越细越快,锁的名字一样
RLock lock = redisson.getLock("CatalogJson-lock");
lock.lock(); Map<String, List<Catalog2Vo>> dataFromDb;
try {
//运行代码
dataFromDb = getDataFromDb();
} finally {
lock.unlock();
} return getDataFromDb(); }
3.1、双写模式:
3.2、失效模式(采用):
5、SpringCache的使用
1、主启动类以及基本注解详解:
/**
*
* @Cacheable:触发保存缓存。
* @CacheEvict:触发删除缓存。
* @CachePut:更新缓存,而不会干扰方法的执行。
* @Caching:重新组合多个缓存操作。
* @CacheConfig:在类级别共享一些与缓存相关的常见设置。
*
* 开启缓存@EnableCaching
*
* 原理:CacheAutoConfiguration->RedisCacheConfiguration->自动配置了RedisCacheManager->初始化所有缓存->每个缓存决定用什么配置
* ->进行判断,如果有自定义配置则按自定义配置,如果没有则按默认->想改缓存配置,只需要给容器中放一个RedisCacheCpnfiguration
*/
@EnableRedisHttpSession
@EnableCaching
@EnableFeignClients(basePackages = "com.atguigu.gulimall.product.feign")
@EnableDiscoveryClient
@MapperScan(basePackages = "com.atguigu.gulimall.product.dao")
@SpringBootApplication
public class GulimallProductApplication { public static void main(String[] args) {
SpringApplication.run(GulimallProductApplication.class, args);
} }
2、注解应用:
/**
* 级联更新所有关联的数据
* @CacheEvict:失效模式
* 1、同时进行多种缓存操作
* 2、指定删除某个分区下所有数据:@CacheEvict(value = "category", allEntries = true)
* 3、存储同一类型数据、都可以指定同一个分区
*
*/ /*方法一:@Caching(evict = {
@CacheEvict(value = "category", key = "'level1Categorys'"),
@CacheEvict(value = "category", key = "'getCatalogJson'")
})*/
//@CacheEvict一旦更改数据就清除缓存
@CacheEvict(value = "category", allEntries = true)//方法二
@Transactional
@Override
public void updateCascade(CategoryEntity category) {
this.updateById(category);
categoryBrandRelationService.updateCategory(category.getCatId(), category.getName());
} /**
* (1指定生成的缓存使用的key:key属性指定
* (2指定缓存的数据存活时间:
* (3将数据保存为json
*/
//每一个缓存的数据都要制定要放到那个名字的缓存【缓存分区】
//缓存过期之后,如果多个线程同时请求对某个数据的访问,会同时去到数据库,导致数据库瞬间负荷增高。
//属性 sync 可以指示底层将缓存锁住,使只有一个线程可以进入计算,而其他线程堵塞,直到返回结果更新到缓存中。
@Cacheable(cacheNames = "category", key = "'level1Categorys'", sync = true)
//代表当前方法结果需要缓存,如果缓存中结果,有方法就不调用,如果没有则调用方法并返回缓存结果
@Override
public List<CategoryEntity> getLevel1Categorys() {
System.out.println("----getLevel1Categorys----");
List<CategoryEntity> categoryEntities = baseMapper.selectList(new QueryWrapper<CategoryEntity>().eq("parent_cid", 0));
return categoryEntities;
}
3、将redis缓存数据数据保存为json格式
//可以读取Properties文件
@EnableConfigurationProperties(CacheProperties.class)
@EnableCaching
@Configuration
public class MyCacheConfig {
@Bean
RedisCacheConfiguration redisCacheConfiguration(CacheProperties cacheProperties) { RedisCacheConfiguration config = RedisCacheConfiguration.defaultCacheConfig(); //Key和Value JSON序列化方式
config = config.serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(new StringRedisSerializer()));
config = config.serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(new GenericFastJsonRedisSerializer())); //使用默认才会读出properties文件中的配置,自定义时roperties文件中的配置不生效
CacheProperties.Redis redisProperties = cacheProperties.getRedis();
if (redisProperties.getTimeToLive() != null) {
config = config.entryTtl(redisProperties.getTimeToLive());
}
if (redisProperties.getKeyPrefix() != null) {
config = config.prefixCacheNameWith(redisProperties.getKeyPrefix());
}
if (!redisProperties.isCacheNullValues()) {
config = config.disableCachingNullValues();
}
if (!redisProperties.isUseKeyPrefix()) {
config = config.disableKeyPrefix();
} return config;
}
}
4、SpringCache能解决的事以及不足:
(1)读模式
缓存击穿:查询一个不存在的数据。解决:缓存空数据( ache-null-values=true)
缓存雪崩:大量key刚好过期。解决:加随机时间和过期时间(spring.cache.redis.time-to-live=3600000)
缓存击穿:大量并发同时查询一个正好过期的数据。解决:加锁(@Cacheable(cacheNames = "category", key = "'level1Categorys'", sync = true))
(2)写模式
SpringCache并未做太多处理
总结:读多写少,即时性、、一致性要求不搞的数据使用SpringCache
分布式锁结合SpringCache的更多相关文章
- SpringBoot集成Redis 一 分布式锁 与 缓存
1.添加依赖及配置(application.yml) <!-- 引入redis依赖 --> <dependency> <groupId>org.springfram ...
- Redis实现缓存与分布式锁
缓存与分布式锁 哪些数据适合放入缓存 即时性.数据一致性要求不高的 访问量大且更新频率不高的数据 选择redis做为缓存中间件 <dependency> <groupId>or ...
- 使用redis构建可靠分布式锁
关于分布式锁的概念,具体实现方式,直接参阅下面两个帖子,这里就不多介绍了. 分布式锁的多种实现方式 分布式锁总结 对于分布式锁的几种实现方式的优劣,这里再列举下 1. 数据库实现方式 优点:易理解 缺 ...
- 分布式锁1 Java常用技术方案
前言: 由于在平时的工作中,线上服务器是分布式多台部署的,经常会面临解决分布式场景下数据一致性的问题,那么就要利用分布式锁来解决这些问题.所以自己结合实际工作中的一些经验和网上看到的一些资 ...
- .net 分布式架构之分布式锁实现
分布式锁 经常用于在解决分布式环境下的业务一致性和协调分布式环境. 实际业务场景中,比如说解决并发一瞬间的重复下单,重复确认收货,重复发现金券等. 使用分布式锁的场景一般不能太多. 开源地址:http ...
- 分布式任务&分布式锁(li)
目前系统中存在批量审批.批量授权等各个操作,批量操作中可能因为处理机器.线程不同,造成刷新缓存丢失授权等信息,如批量审批同一用户权限多个权限申请后,流程平台并发的发送多个http请求到acl不同服务器 ...
- jedisLock—redis分布式锁实现
一.使用分布式锁要满足的几个条件: 系统是一个分布式系统(关键是分布式,单机的可以使用ReentrantLock或者synchronized代码块来实现) 共享资源(各个系统访问同一个资源,资源的载体 ...
- ZooKeeper 笔记(6) 分布式锁
目前分布式锁,比较成熟.主流的方案有基于redis及基于zookeeper的二种方案. 大体来讲,基于redis的分布式锁核心指令为SETNX,即如果目标key存在,写入缓存失败返回0,反之如果目标k ...
- 一次基于etcd的分布式锁自动延时失败问题的排查
今天在测试基于etcd的分布式锁过程中,在测试获取锁后,释放之前超出TTL时长的情况下自动延长TTL这部分功能,在延长指定key的TTL时总是返回404错误信息,在对目标KEY更新TTL时目标KEY已 ...
随机推荐
- jzoj 3431. 【GDOI2014模拟】网格
Description 某城市的街道呈网格状,左下角坐标为A(0, 0),右上角坐标为B(n, m),其中n >= m.现在从A(0, 0)点出发,只能沿着街道向正右方或者正上方行走,且不能经过 ...
- jackson序列化与反序列化的应用实践
jackson序列化与反序列化的应用实践 源码地址: https://github.com/zhouweixin/serializable 1 相关概念 序列化: 把对象转换为字节序列的过程称为对象的 ...
- charles 入门配置(win10+vivoX20)(Charles一)
charles的几个功能可以参考:https://www.cnblogs.com/mihoutao/p/10601171.html 首先是charles的下载 下载地址:https://www.cha ...
- 抓包工具Burp Suite安装步骤(待补充)
Burp Suite V2.1(破解版)安装步骤:(可以自行下载破解版或汉化版) 百度网盘下载地址: 链接:https://pan.baidu.com/s/1bU5JME3OsEsXrSirTdesR ...
- python中faker模块:产生随机数据的模块
#pip install faker #产生各种随机数据的模块 想要运用更多的随机数据,可以百度查找下
- linux 信号机制
文章目录 1. 实时信号非实时信号 2. 信号状态: 3. 信号生命周期: 4. 信号的执行和注销 信号掩码和信号处理函数的继承 信号处理函数的继承 信号掩码的继承 sigwait 与多线程 sigw ...
- [LeetCode]66. 加一(数组)
###题目 给定一个由整数组成的非空数组所表示的非负整数,在该数的基础上加一. 最高位数字存放在数组的首位, 数组中每个元素只存储单个数字. 你可以假设除了整数 0 之外,这个整数不会以零开头. 示例 ...
- Kubernetes调度流程与安全(七)
一.Kubernetes中的调度流程 1,介绍 Scheduler 是 k8s 中的调度器,主要的任务是把定义的 Pod 分配到集群的节点上.Scheduler 是作为一个单独的程序运行的,启动之后会 ...
- nginx异步访问mysql
nginx中有一个模块有这个功能,(以前的文章中扩展,这里叫模块,以后统一叫模块,模块可能准确点,因为扩展是单独的文件,而模块是嵌入到主文件中的),这个模块叫drizzle-nginx-module, ...
- 10.Atomic-原子性操作