前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Golang groupcache LRU 缓存简介与用法

Golang groupcache LRU 缓存简介与用法

作者头像
恋喵大鲤鱼
发布2019-08-01 10:43:02
8.3K1
发布2019-08-01 10:43:02
举报
文章被收录于专栏:C/C++基础C/C++基础

1.LRU

LRU(Least Recently Used,最近最久未使用算法)是一种常见的缓存淘汰算法,当缓存满时,淘汰最近最久未使用的元素,在很多分布式缓存系统(如Redis, Memcached)中都有广泛使用。其基本思想是如果一个数据在最近一段时间没有被访问到,那么可以认为在将来它被访问的可能性也很小。因此,当缓存满时,最久未被访问的数据最先被淘汰。具体做法是将最近使用的元素存放到靠近缓存顶部的位置,当一个新条目被访问时,LRU 将它放置到缓存的顶部。当缓存满时,较早之前访问的条目将从缓存底部被移除。

2.groupcache LRU Cache 简介

在 Go 中,如果想使用 LRU 缓存,可以使用 Google Golang 团队官方出品的开源库 groupcache ,开源地址见 Github.groupcache。LRU 缓存通过 groupcache/lru/lru.go实现,它主要是封装了一系列 LRU 缓存操作的相关的接口。主要有:

代码语言:javascript
复制
//创建一个 LRU Cache
func New(maxEntries int) *Cache
 
//向 Cache 中插入一个 KV
func (c *Cache) Add(key Key, value interface{})

//从 Cache 中获取一个 key 对应的 value
func (c *Cache) Get(key Key) (value interface{}, ok bool)

//从 Cache 中删除一个 key
func (c *Cache) Remove(key Key)

//从 Cache 中删除最久未被访问的数据
func (c *Cache) RemoveOldest()

//获取 Cache 中当前的元素个数
func (c *Cache) Len()

//清空 Cache
func (c *Cache) Clear()

注意,groupcache 中实现的 LRU Cache 并不是并发安全的,如果用于多个 Go 程并发的场景,需要加锁。

当然,除了使用 groupcache 的 LRU Cache,其他开源的库也可以参考一下,比如 HashiCorp 公司推出的 golang-lru

3.源码剖析

LRU Cache 基于 map 与 list,map 用于快速检索,list 用于实现 LRU。具体实现如下:

代码语言:javascript
复制
package lru

import "container/list"

//Cache 是一个 LRU Cache,注意它并不是并发安全的
type Cache struct {
	//MaxEntries 是 Cache 中实体的最大数量,0 表示没有限制
	MaxEntries int
	
	//OnEvicted 是一个可选的回调函数,当一个实体从 Cache 中被移除时执行
	OnEvicted func(key Key, value interface{})
	
	//ll是一个双向链表指针,执行一个 container/list 包中的双向链表
	ll *list.List
	
	//cache 是一个 map,存放具体的 k/v 对,value 是双向链表中的具体元素,也就是 *Element
	cache map[interface{}]*list.Element
}

//key 是接口,可以是任意类型
type Key interface{}

//一个 entry 包含一个 key 和一个 value,都是任意类型
type entry struct {
	key   Key
	value interface{}
}

//创建一个 LRU Cache。maxEntries 为 0 表示缓存没有大小限制
func New(maxEntries int) *Cache {
	return &Cache{
		MaxEntries: maxEntries,
		ll:         list.New(),
		cache:      make(map[interface{}]*list.Element),
	}
}

//向 Cache 中插入一个 KV
func (c *Cache) Add(key Key, value interface{}) {
	if c.cache == nil {
		c.cache = make(map[interface{}]*list.Element)
		c.ll = list.New()
	}
	if ee, ok := c.cache[key]; ok {
		c.ll.MoveToFront(ee)
		ee.Value.(*entry).value = value
		return
	}
	ele := c.ll.PushFront(&entry{key, value})
	c.cache[key] = ele
	if c.MaxEntries != 0 && c.ll.Len() > c.MaxEntries {
		c.RemoveOldest()
	}
}

//传入一个 key,返回一个是否有该 key 以及对应 value
func (c *Cache) Get(key Key) (value interface{}, ok bool) {
	if c.cache == nil {
		return
	}
	if ele, hit := c.cache[key]; hit {
		c.ll.MoveToFront(ele)
		return ele.Value.(*entry).value, true
	}
	return
}

//从 Cache 中删除一个 KV
func (c *Cache) Remove(key Key) {
	if c.cache == nil {
		return
	}
	if ele, hit := c.cache[key]; hit {
		c.removeElement(ele)
	}
}

//从 Cache 中删除最久未被访问的数据
func (c *Cache) RemoveOldest() {
	if c.cache == nil {
		return
	}
	ele := c.ll.Back()
	if ele != nil {
		c.removeElement(ele)
	}
}

//从 Cache 中删除一个元素,供内部调用
func (c *Cache) removeElement(e *list.Element) {
	//先从 list 中删除
	c.ll.Remove(e)
	
	kv := e.Value.(*entry)

	//再从 map 中删除
	delete(c.cache, kv.key)
	
	//如果回调函数不为空则调用
	if c.OnEvicted != nil {
		c.OnEvicted(kv.key, kv.value)
	}
}

//获取 Cache 当前的元素个数
func (c *Cache) Len() int {
	if c.cache == nil {
		return 0
	}
	return c.ll.Len()
}

//清空 Cache
func (c *Cache) Clear() {
	if c.OnEvicted != nil {
		for _, e := range c.cache {
			kv := e.Value.(*entry)
			c.OnEvicted(kv.key, kv.value)
		}
	}
	c.ll = nil
	c.cache = nil
}

4.使用示例

从上面的源码分析来看,groupcache 实现的 LRU Cache 还是比较简单的,Google 一直秉持着简单易用的设计理念,可见一斑。下面看一个使用示例。

代码语言:javascript
复制
package main

import (
	"fmt"
	"github.com/groupcache/lru"
)

func main() {
	cache := lru.New(2)
	cache.Add("bill", 20)
	cache.Add("dable", 19)
	v, ok := cache.Get("bill")
	if ok {
		fmt.Printf("bill's age is %v\n", v)
	}
	cache.Add("cat", "18")
	
	fmt.Printf("cache length is %d\n", cache.Len())
	_, ok = cache.Get("dable")
	if !ok {
		fmt.Printf("dable was evicted out\n")
	}
}

编译运行输出:

代码语言:javascript
复制
bill's age is 20
cache length is 2
dable was evicted out

参考文献

[1] Github.groupcache [2] 缓存淘汰算法(LFU、LRU、ARC、FIFO、MRU)分析 [3] groupcache 源码分析(二)-- LRU

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019年07月14日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.LRU
  • 2.groupcache LRU Cache 简介
  • 3.源码剖析
  • 4.使用示例
  • 参考文献
相关产品与服务
云数据库 Redis
腾讯云数据库 Redis(TencentDB for Redis)是腾讯云打造的兼容 Redis 协议的缓存和存储服务。丰富的数据结构能帮助您完成不同类型的业务场景开发。支持主从热备,提供自动容灾切换、数据备份、故障迁移、实例监控、在线扩容、数据回档等全套的数据库服务。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档