专栏首页物流IT圈缓存穿透、缓存击穿、缓存雪崩的应对方案

缓存穿透、缓存击穿、缓存雪崩的应对方案

前言

设计一个缓存系统,不得不考虑的问题就是:缓存穿透、缓存击穿与失效时的雪崩效应。

缓存穿透

缓存穿透是指查询一个一定不存在的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。在流量大时,可能DB就挂掉了,要是有人利用不存在的key频繁攻击我们的应用,这就是漏洞。

解决方案

有很多种方法可以有效地解决缓存穿透问题,最常见的则是采用布隆过滤器,将所有可能存在的数据哈希到一个足够大的bitmap中,一个一定不存在的数据会被 这个bitmap拦截掉,从而避免了对底层存储系统的查询压力。另外也有一个更为简单粗暴的方法(我们采用的就是这种),如果一个查询返回的数据为空(不管是数 据不存在,还是系统故障),我们仍然把这个空结果进行缓存,但它的过期时间会很短,最长不超过五分钟。

缓存雪崩

缓存雪崩是指在我们设置缓存时采用了相同的过期时间,导致缓存在某一时刻同时失效,请求全部转发到DB,DB瞬时压力过重雪崩。

解决方案

缓存失效时的雪崩效应对底层系统的冲击非常可怕。大多数系统设计者考虑用加锁或者队列的方式保证缓存的单线 程(进程)写,从而避免失效时大量的并发请求落到底层存储系统上。这里分享一个简单方案就时讲缓存失效时间分散开,比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。

缓存击穿

对于一些设置了过期时间的key,如果这些key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:缓存被“击穿”的问题,这个和缓存雪崩的区别在于这里针对某一key缓存,前者则是很多key。

缓存在某个时间点过期的时候,恰好在这个时间点对这个Key有大量的并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。

1、解决方案

我们的目标是:尽量少的线程构建缓存(甚至是一个) + 数据一致性 + 较少的潜在危险,下面会介绍四种方法来解决这个问题:

1)、使用互斥锁(mutex key): 这种解决方案思路比较简单,就是只让一个线程构建缓存,其他线程等待构建缓存的线程执行完,重新从缓存获取数据就可以了(如下图)

如果是单机,可以用synchronized或者lock来处理,如果是分布式环境可以用分布式锁就可以了(分布式锁,可以用memcache的add, redis的setnx, zookeeper的添加节点操作)。

下面是Tim yang博客的代码,是memcache的伪代码实现

if (memcache.get(key) == null) {
 // 3 min timeout to avoid mutex holder crash 
 if (memcache.add(key_mutex, 3 * 60 * 1000) == true) {
 value = db.get(key);
 memcache.set(key, value);
 memcache.delete(key_mutex);
 } else {
 sleep(50);
 retry();
 }
}

如果换成redis,就是:

String get(String key) {
 String value = redis.get(key);
 if (value == null) {
 if (redis.setnx(key_mutex, "1")) {
 // 3 min timeout to avoid mutex holder crash 
 redis.expire(key_mutex, 3 * 60)
 value = db.get(key);
 redis.set(key, value);
 redis.delete(key_mutex);
 } else {
 //其他线程休息50毫秒后重试 
 Thread.sleep(50);
 get(key);
 }
 }
} 

2)、"提前"使用互斥锁(mutex key):

在value内部设置1个超时值(timeout1), timeout1比实际的memcache timeout(timeout2)小。当从cache读取到timeout1发现它已经过期时候,马上延长timeout1并重新设置到cache。然后再从数据库加载数据并设置到cache中。伪代码如下:

v = memcache.get(key);
if (v == null) {
 if (memcache.add(key_mutex, 3 * 60 * 1000) == true) {
 value = db.get(key);
 memcache.set(key, value);
 memcache.delete(key_mutex);
 } else {
 sleep(50);
 retry();
 }
} else {
 if (v.timeout <= now()) {
 if (memcache.add(key_mutex, 3 * 60 * 1000) == true) {
 // extend the timeout for other threads 
 v.timeout += 3 * 60 * 1000;
 memcache.set(key, v, KEY_TIMEOUT * 2);
 // load the latest value from db 
 v = db.get(key);
 v.timeout = KEY_TIMEOUT;
 memcache.set(key, value, KEY_TIMEOUT * 2);
 memcache.delete(key_mutex);
 } else {
 sleep(50);
 retry();
 }
 }
}

3)、"永远不过期":

这里的“永远不过期”包含两层意思:

1、从redis上看,确实没有设置过期时间,这就保证了,不会出现热点key过期问题,也就是“物理”不过期。

2、从功能上看,如果不过期,那不就成静态的了吗?所以我们把过期时间存在key对应的value里,如果发现要过期了,通过一个后台的异步线程进行缓存的构建,也就是“逻辑”过期

从实战看,这种方法对于性能非常友好,唯一不足的就是构建缓存时候,其余线程(非构建缓存的线程)可能访问的是老数据,但是对于一般的互联网功能来说这个还是可以忍受。

String get(final String key) {
 V v = redis.get(key);
 String value = v.getValue();
 long timeout = v.getTimeout();
 if (v.timeout <= System.currentTimeMillis()) {
 // 异步更新后台异常执行 
 threadPool.execute(new Runnable() {
 public void run() {
 String keyMutex = "mutex:" + key;
 if (redis.setnx(keyMutex, "1")) {
 // 3 min timeout to avoid mutex holder crash 
 redis.expire(keyMutex, 3 * 60);
 String dbValue = db.get(key);
 redis.set(key, dbValue);
 redis.delete(keyMutex);
 }
 }
 });
 }
 return value;
}

4)、资源保护:

之前在缓存雪崩那篇文章提到了netflix的hystrix,可以做资源的隔离保护主线程池,如果把这个应用到缓存的构建也未尝不可。

2、四种方案对比:

作为一个并发量较大的互联网应用,我们的目标有3个:

a)、加快用户访问速度,提高用户体验。

b)、降低后端负载,保证系统平稳。

c)、保证数据“尽可能”及时更新(要不要完全一致,取决于业务,而不是技术。)

所以第二节中提到的四种方法,可以做如下比较,还是那就话:没有最好,只有最合适。

1)、简单分布式锁(Tim yang)

优点

a)、思路简单

b)、保证一致性

缺点

a)、代码复杂度增大

b)、存在死锁的风险

c)、存在线程池阻塞的风险

2)、加另外一个过期时间(Tim yang)

优点

a)、保证一致性

缺点

a)、代码复杂度增大

b)、存在死锁的风险

c)、存在线程池阻塞的风险

3)、不过期(本文)

优点

a)、异步构建缓存,不会阻塞线程池

缺点

a)、不保证一致性。

b)、代码复杂度增大(每个value都要维护一个timekey)。

c)、占用一定的内存空间(每个value都要维护一个timekey)。

4)、不过期(本文)

优点

a)、hystrix技术成熟,有效保证后端。

b)、hystrix监控强大。

缺点

a)、部分访问存在降级策略。

总结

热点key + 过期时间 + 复杂的构建缓存过程 => mutex key问题

构建缓存一个线程做就可以了。

四种解决方案:没有最佳只有最合适。

本文分享自微信公众号 - 物流IT圈(exiter18),作者:Java编程艺术

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2018-11-30

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • B端SaaS产品工作流程

    产品研发流程大体分为:立项阶段、设计阶段、开发阶段、测试阶段、上线阶段、运营阶段。

    物流IT圈
  • 性能优化的首要法则

    大部分人需要他们的系统运行得更快,那么从哪里开始呢?大部分profiler工具都有内存跟踪 CPU跟踪,既然我们想让我们的程序跑得更快,那当然应该是盯着CPU了...

    物流IT圈
  • 针对B端产品,如何顺利开展workshop?

    各位B端产品/需求分析的同学一定对workshop这个名词不陌生,它的中文名是需求访谈会。个人对C端产品不熟,本文也仅就B端产品的访谈聊一聊个人经验。本文适合0...

    物流IT圈
  • 面试必备:缓存穿透,缓存雪崩的四种解决方案

    缓存穿透是指查询一个一定不存在的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存...

    zhisheng
  • 面试必备:缓存穿透,缓存雪崩的四种解决方案

    缓存穿透是指查询一个一定不存在的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存...

    搜云库技术团队
  • SpringCloud微服务项目实战 - 网关zuul详解及搭建

    上一篇介绍了服务的调用,这篇接着之前的话题,来说说SpringCloud中zuul的使用及搭建网关的那点事。

    攻城狮的那点事
  • 关于Promise传递出去

    用户1437675
  • 今天我过生日,我来聊聊我这二十多年来的IT经历

    最近由于需要找一封很久之前发出去的邮件,偶然在发件箱里翻到了我大概14年前写的一段代码,今天借着这30岁生日这个特殊的日子,我想跟大家聊一聊我所经...

    黄鸿波
  • Elasticsearch 5.0 —— Head插件部署指南(Head目前支持5.0了!请不要看本篇文章了)

    使用ES的基本都会使用过head,但是版本升级到5.0后,head插件就不好使了。下面就看看如何在5.0中启动Head插件吧! Head目前支持5.0了!...

    用户1154259
  • 黑科技:使用AI和机器学习将Android项目秒变IOS项目

    最近看Github,发现了一个刚出炉的黑科技:利用人工智能(AI)和机器学习(ML)技术将现有Android源代码转换成iOS代码。目前支持Android项目中...

    AWeiLoveAndroid

扫码关注云+社区

领取腾讯云代金券