在服务端读数据进行访问时,往往会对数据进行分片,此过程中会在某一主机 Server 上对相应的 Key 进行访问,当访问超过 Server 极限时,就会导致热点 Key 问题。
当某热点Key请求在某一主机上超过该主机网卡上限时,由于流量过度集中,导致服务器中其它服务无法正常进行 =》 热点过于集中,热点Key缓存过多,超过目前的缓存容量,就会导致缓存分片服务被打垮 =》 缓存服务崩溃,此时再有请求产生,会缓存到后台DB,导致缓存穿透,进一步还会导致缓存雪崩。
通常的解决方案主要集中在对客户端和Server端进行改造。
Client会将请求发送到Server,而Server是多线程服务,本地就具有一个基于Cache LRU策略的缓存空间。当Server本身拥堵时,Server不会将请求进一步发送给DB而是直接返回,只有当Server本身畅通时才会将Client请求发送至DB,并且将该数据重新写入缓存。此时就完成了缓存的访问跟重建。
在客户端单独部署缓存。使用过程中Client首先访问服务层,再对同一主机上的缓存层进行访问。该种解决方案具有就近访问、速度快、没有带宽限制的优点。但也存在问题:
使用Redis做缓存,那可以把一个热点Key的缓存查询压力,分散到多个Redis节点。
加随机后缀。
在一个非常热点的数据,数据更新不是很频繁,但是查询非常频繁,要保证基本保证100%的缓存命中率,该怎么处理?
核心思想:空间换时间,即同一热点key保留2份:
先查询不带后缀的,查询不到,则:
这样即可尽可能避免缓存击穿。
参考