OSCache 是一个受到争议的开源缓存框架,OpenSymphony 网站已经关闭(OpenSymphony 可是诞生过 Quartz、WebWork、SiteMesh 和 OGNL 等数个非常有名的框架的)了,它也已经不维护了。在 JavaEE 的缓存框架领域,似乎已经是 EhCache 等其它支持分布式的缓存框架的天下了,OSCache 垂垂老矣?但是 OSCache 的源代码依然值得一读,一度作为最常用的缓存框架,代码量却不大,绝大部分类一天的时间就可以详详细细地阅读完。
统观 OSCache 的代码,我最关注其中的 base、algorithm、events、persistence、clustersupport、web、filter 和 tag 几个子包,接下会对这几个主要模块作介绍。
核心类和核心概念
cache factory:AbstractCacheAdministrator,生产 Cache,同时管理用户配置的 config,配置监听器列表和 Cache 的绑定。子类 GeneralCacheAdministrator 是通用实现,子类 ServletCacheAdministrator 关联了一个 ServletContext,以实现在 Web 容器中的存储和传值(对于 session 的 scope,持久化时,存放路径上会建立一个 sessionID 的 dir,以避免存放冲突)。
cache proxy:Cache,是 OSCache 缓存管理的核心,也是 cache map 的存放场所。子类 ServletCache 引入了一个 scope 的概念,用以管理不同的可见性缓存,存在 application 级别、session 级别;
cache map:AbstractConcurrentReadCache,缓存存储 map。下面有基于它的子类,分别实现了 LRU 算法、FIFO 算法和无限制缓存策略;
cache entry:缓存条目,map 中存储的每一项。其内部包含了缓存条目的创建、修改时间,存储的 key、value 等重要属性,此外,还有一个 Set group,标识每个 entry 从属于哪些组。
它们之间的关系如下:
值得说明的是,这张图虽然简单,却很有借鉴意义,再复杂的缓存框架,它往往都逃脱不出这样的最基本的设计。
调用示例代码如下:
ServletCacheAdministrator admin = ServletCacheAdministrator.getInstance(config.getServletContext());
Cache cache = admin.getCache(httpRequest, cacheScope);
cache.flushGroup(group);
EntryRefreshPolicy 是 entry 的过期刷新策略接口,OSCache 允许自行定义缓存项的过期策略:
cache.putInCache(key, content, policy);
cache map 对 cache entry 的管理
EntryUpdateState 是 cache entry 当前所处状态的表示,OSCache 尽量避免了使用 synchronize,引入了许多状态参量。状态变迁图示如下:
对于缓存超期的判定,官方推荐有两种方案,一种是 “with fail over” 的:
String myKey = "myKey";
String myValue;
int myRefreshPeriod = 1000;
try {
// Get from the cache
myValue = (String) admin.getFromCache(myKey, myRefreshPeriod);
} catch (NeedsRefreshException nre) {
try {
// Get the value (probably by calling an EJB)
myValue = "This is the content retrieved.";
// Store in the cache
admin.putInCache(myKey, myValue);
} catch (Exception ex) {
// We have the current content if we want fail-over.
myValue = (String) nre.getCacheContent();
// It is essential that cancelUpdate is called if the
// cached content is not rebuilt
admin.cancelUpdate(myKey);
}
}
还有一种是 “without fail over” 的:
String myKey = "myKey";
String myValue;
int myRefreshPeriod = 1000;
try {
// Get from the cache
myValue = (String) admin.getFromCache(myKey, myRefreshPeriod);
} catch (NeedsRefreshException nre) {
try {
// Get the value (probably by calling an EJB)
myValue = "This is the content retrieved.";
// Store in the cache
admin.putInCache(myKey, myValue);
updated = true;
} finally {
if (!updated) {
// It is essential that cancelUpdate is called if the
// cached content could not be rebuilt
admin.cancelUpdate(myKey);
}
}
}
这里出现了臭名昭著的 NeedsRefreshException,它在缓存条目过期或者不存在的时候都会抛出。当这个异常出现,相应的 cache map 的 key 会被锁住,并且要访问它的所有其他线程都被 block 住了,所以,这个时候一定要调用 putInCache 或者 cancelUpdate,千万不能遗漏,否则就是一个死锁。
为什么要这样实现?
首先,我们需要好好分析分析 OSCache 的核心,Cache 类。Cache 类的属性中,这个属性和这个问题最相关:
private Map updateStates = new HashMap();
其中,updateStates 这个 map,它的 key 是正在工作的缓存条目的 key,value 是 EntryUpdateState,它是用来协调并发访问同一个缓存条目之用的。
当一条缓存条目正在被更新,那么有两种策略,根据配置项 cache.blocking 的配置,要么等待更新完成(阻塞策略),要么返回已经过时的缓存内容(非阻塞策略),选用哪种策略。
为了避免数据争用,cache map 里面的值在某线程操作的过程中不能消失,因此 updateStates 实际的作用是显式引用计数(每一个 updateState 里面都有一个计数器),在所有线程都完成存取和更新以后,cache map 的这条 entry 才能被清除掉。
再补充一个前提知识,缓存访问状态最终有三种:
来看看 getFromCache 的逻辑:
(注意下面的 updateStates,类型是 Map<EntryUpdateState>;updateState 是其中的一条状态,类型是 EntryUpdateState,小心混淆)
首先看看该缓存条目是否需要刷新,如果需要,锁住 updateState(同时,引用计数加一);
情况 1:updateState 状态如果是 waiting 或者 cancelled:
把这条 updateState 标识为 updating;
再看 cache entry 里的最近更新时间,如果还是 NOT_YET,说明这次缓存访问判定为 MISS;否则,就是 STALE_HIT 。
情况 2:如果 updateState 状态是 updating:
那么在配置为阻塞策略的情况下,或者 cache entry 状态为 NOT_YET,都需要等待这一次 updating 的完成:
do {
try {
updateState.wait();
} catch (InterruptedException e) {
}
} while (updateState.isUpdating());
如果更新的线程取消了更新,那么缓存仍然是过期的,执行和前面分支相同的操作——根据 cache entry 的时间把这次缓存访问判定为 MISS 还是 STALE_HIT;如果没取消更新的话,那么这时 updateState 的状态应该是 complete。
情况 3:updateState 状态是 complete(也可以是前面情况 2 结束之后状态是 complete),就可以载入缓存中的数据返回了,否则就要抛出 NeedsRefreshException。(引用计数减一)
相反地,putInCache 的逻辑非常简单,但要注意的是,其中调用了 completeUpdate(key) 方法,其中会唤醒 putInCache 中 wait 的 updateState:
state.notifyAll();
而在 cancelUpdate(key) 方法中也有同样的逻辑。
所以,putInCache 之后,业务逻辑上一定要调用到 putInCache 或者 cancelUpdate,以避免永久 wait 导致死锁的发生。
OSCache 就是采用这样的引用计数状态量机制,解决了多线程并发访问缓存的问题,同时,没有任何语句锁住整个 cache map,在高并发的情况下不会有太大的性能损失。
PS:在实际使用中,发现还是会抛出一些非预期的异常,甚至也遇到过若干造成思索的 bug,有的在 OSCache 的 JIRA 上都有记载,但是未有官方的解决出现。
淘汰算法
对于 cache entry 淘汰算法,常见的有 FIFO 和 LRU,FIFO 比较简单,这里以 LRUCache 为话题说几句。
不妨先问这样一个问题:如果让你来做 LRU 算法(Least Recently Used 最近最少使用算法),你会怎样实现?
如果是我的话,我会回答:利用 JDK 的 LinkedHashMap 预留的机制来实现。
先来看看 JDK 的 HashMap 的存储:
上图每一个矩形都是一个 Entry,HashMap 存放的时候,通过 Entry[] table 来管理 hash 之后的每一个桶的入口,在调用 map 的 get 方法的时候,先对 key 进行 hash 计算,找到桶,然后和桶内挨个 entry 的 key 进行 equals 操作,来寻找目标对象。
而 LinkedHashMap,它的 Entry 继承自 HashMap 的 Entry,比 HashMap 的 Entry 多了两个属性:before 和 after,这样就在 HashMap 的基础上,又单独维护了一个双向循环链表,同时 LinkedHashMap 保留了一个对这个链表 head 的引用。
同时,LinkedHashMap 引入一个 accessOrder 属性,用来控制 access-order 还是 insertion-order,前者表示按照访问情况排序,后者表示按照插入情况排序。每次调用 get 方法时,进行一次 recordAccess 操作,如果是按照访问顺序排序的话,我需要在这次 get 访问后调整次序,即将刚访问的节点移到 head 节点之前(而每次要淘汰一个节点的时候,一定是淘汰 header 之后的那个节点)。
每次添加节点时都调用如下方法判断是否需要移除一个最近最少使用的节点:
protected boolean removeEldestEntry(Map.Entry<K,V> eldest) {
return false;
}
而这个方法是 protected 方式扩展给子类实现的,我只要在我建立的子类 LRUMap 里面实现这个方法,判断当前 cache map 的 size 是否已经超出预设上限,超出则返回 true 即可。
好,我可以按照上面这个办法实现,但是这个办法的最大问题是,它不是线程安全的。
到此先打住,来看看 OSCache 是怎么做的:
AbstractConcurrentReadCache 的实现本质上就是 ConcurrentReaderHashMap。ConcurrentReaderHashMap 和 ConcurrentHashMap 这两个 Map(作者都是 Doug Lea)实现是线程安全的,并且不需要对并发访问或更新进行同步,同时还适用于大多数需要 Map 的情况。它们还远比同步的 Map(如 Hashtable)或使用同步的包装器更具伸缩性,并且与 HashMap 相比,它们对性能的破坏很小。
AbstractConcurrentReadCache 支持大多数情况下的并发读,但是不支持并发写。读策略比经典的读写策略要弱,但是总的来说在高并发下要快些。如果数据大多在被程序起始阶段创建,然后就是大量的并发读(有少量的添加和删除),这种情况下性能表现最好。因此,如果涉及到大量写的情况,不妨使用 ConcurrentHashMap。
实现上,使用 get(key)、contains(key) 成功的获取是不加锁的,不过如果失败了(比如这个 key 不存在)就会调用 synchronize 加锁来实现了,同时,size 和 isEmpty 方法总是 synchronized 的。
我对于这个类还是没有参透,不在此误人子弟了,有兴趣的同学请自行 Google,如果有研究明白的请告诉我,这里给一个 ConcurrentReaderHashMap 的 APIdoc 链接:ConcurrentReaderHashMap。
在 AbstractConcurrentReadCache 下有 FIFOCache、LRUCache 和 UnlimitedCache 三个子类。以 LRUCache 为例,它用一个 LinkedHashSet,起到队列的作用,来存放所有的 key,实现父类的回调方法进行这个队列的维护操作:
protected void itemRetrieved(Object key) {
// Prevent list operations during remove
while (removeInProgress) {
try {
Thread.sleep(5);
} catch (InterruptedException ie) {
}
}
// We need to synchronize here because AbstractConcurrentReadCache
// doesn't prevent multiple threads from calling this method simultaneously.
synchronized (list) {
list.remove(key);
list.add(key);
}
}
...
为什么 LinkedHashSet 会起到队列的作用?
原来,它是基于父类 HashSet 实现的,而调用父类构造器的时候,使用了三个参数,HashSet 的构造器很有意思:
public HashSet(int initialCapacity, float loadFactor) {
map = new HashMap<E,Object>(initialCapacity, loadFactor);
}
HashSet(int initialCapacity, float loadFactor, boolean dummy) {
map = new LinkedHashMap<E,Object>(initialCapacity, loadFactor);
}
可以看到,三个参数的构造器,实际实现的 map 是 LinkedHashMap(这第三个参数 dummy 居然是毫无作用的),前文已经说过,它是怎样实现有序的。
在这个队列里面,每次删除都是删第一个,而每次 put 或者 get 的时候,都往把该节点挪到队尾。
事件/监听模型
CacheEvent 下面有如下几个子类,其中 CacheMapAccessEvent 对应的 listener 是 CacheMapAccessEventListener,ScopeEvent 对应的 listener 是 ScopeEventListener,其余的几个 event 对应的 listener 都是 CacheEntryEventListener,这三种类型的实现类中都有相应的一个 Statistic 监听实现类,做统计用:
持久化
PersistenceListener 接口定义了 remove、retrieve 和 store 等用于缓存持久化的方法,抽象实现类 AbstractDiskPersistenceListener 下,有两个子类:DiskPersistenceListener 和 HashDiskPersistenceListener,后者给文件名做了 md5 散列,并根据散列结果,将文件分散存储到多个文件夹内,以提高文件数量太大时,文件和文件夹访问的性能(操作系统文件夹内文件数量有限制):
StringBuffer filename = new StringBuffer(hexDigest.length() + 2 * DIR_LEVELS);
for (int i=0; i < DIR_LEVELS; i++) {
filename.append(hexDigest.charAt(i)).append(File.separator);
}
filename.append(hexDigest);
不过,这样的文件名、文件夹名和文件夹划分是不具备业务语义的,不容易理解,使用时可以定义自己的持久化监听器以改善存储。
对于集群节点下持久化文件的存储,可能造成名字冲突的问题,OSCache 给出的解决办法是文件名组成上增加一个 serverName。
集群
LifecycleAware 接口提供了 Cache 的初始化和终结方法接口,AbstractBroadcastingListener 在缓存 flush 发生时通知到其他节点,通知的方式由不同的子类实现。
最常用的是 JGroupBroadcastingListener,使用 JGroup 通信(多播消息),但是 JGroup 并不是一个少惹麻烦的主,曾经有同事遇到过集群 Cache 过多导致 JGroup 通信时节点累积的 NAKACK 数量过大的问题,消耗大量内存,请在使用前考察清楚。
web 支持
先上一张典型的基于 OSCache 的 web 请求缓存方案:
这个捕获请求的介质就是 CacheFilter,包装后的 response 就是 CacheHttpServletResponseWrapper,它包含一个 SplitServletOutputStream,这样在后面的逻辑中,如果要获取 output stream 的时候,获取到的就是它了。
这个特殊的 stream 在写入时,既写入原生 response,也写入一个 fake response 流——ByteArrayOutputStream,代码如下:
public class SplitServletOutputStream extends ServletOutputStream {
OutputStream captureStream = null;
OutputStream passThroughStream = null;
public void write(int value) throws IOException {
captureStream.write(value);
passThroughStream.write(value);
}
......
}
另外,在 web 缓存生效,输出读取的缓存内容时,CacheFilter 给 response 头部增加 “Last-Modified”、“Expires”、“If-Modified-Since” 和 “Cache-Control” 这些帮助浏览器实现客户端缓存的头。
tag 子包提供了一组可供模板页面上使用的缓存标签集合,以实现页面不同区域不同缓存生命周期的精确控制。如:
<oscache:cache key="sth" scope="application" time="-1" groups="groupA" >
//page template code
</oscache:cache>
到此,不妨来基于 OSCache 做一个小小的思考,OSCache 于我来说,可以说出这样一些内容:
PS:对于缓存有兴趣的同学,不妨关注一下 JSR107,从编号上就可以看出,这个规范提得很早,但是这么重要的东西,直到现在也没有搞定(这是 JDK 令人费解的地方之一),看看投票的人里面,Doug Lea 也在里面。或许在 Java 7 中能够看到它的实现(当然,现在已经可以下载得到它的代码了,代码主要是 Greg Luck 和 Yannis Cosmadopoulos 写的)。
文章未经特殊标明皆为本人原创,未经许可不得用于任何商业用途,转载请保持完整性并注明来源链接 《四火的唠叨》
×Scan to share with WeChat