Twitter Storm源代码分析之TimeCacheMap
转自:http://xumingming.sinaapp.com/395/twitter-storm-code-analysis-timecahcemap/
TimeCacheMap是Twitter Storm里面一个类, Storm使用它来保存那些最近活跃的对象,并且可以自动删除那些已经过期的对象。这个类设计的很巧妙, 我们来看一下。
TimeCacheMap里面的数据是保存在内部变量_bucket里面的:
1 private LinkedList<HashMap<K, V>> _buckets;
在这点上跟ConcurrentHashMap有点类似, ConcurrentHashMap是利用多个bucket来缩小锁的粒度, 从而实现高并发的读写。而TimeCacheMap则是利用多个bucket来使得数据清理线程占用锁的时间最小。
首先来看看TimeCacheMap的构造函数, 它的构造函数首先是生成numBuckets个空的HashMap:
1 _buckets = new LinkedList<HashMap<K, V>>(); 2 for(int i=0; i<numBuckets; i++) { 3 _buckets.add(new HashMap<K, V>()); 4 }
然后就是最关键的清理线程部分,TimeCacheMap使用一个单独的线程来清理那些过期的数据:
1 final long expirationMillis = expirationSecs * 1000L; 2 final long sleepTime = expirationMillis/(numBuckets-1); 3 _cleaner = new Thread(new Runnable() { 4 public void run() { 5 try { 6 while(true) { 7 Map<K, V> dead = null; 8 // 9 Time.sleep(sleepTime); 10 synchronized(_lock) { 11 dead = _buckets.removeLast(); 12 _buckets.addFirst( 13 new HashMap<K, V>()); 14 } 15 if(_callback!=null) { 16 for(Entry<K, V> entry: 17 dead.entrySet()) { 18 _callback.expire(entry.getKey(), 19 entry.getValue()); 20 } 21 } 22 } 23 } catch (InterruptedException ex) { 24 25 } 26 } 27 }); 28 _cleaner.setDaemon(true); 29 _cleaner.start();
这个线程每隔 expirationSecs / (numBuckets - 1) 秒钟的时间去把最后一个bucket里面的数据全部都删除掉 — 这些被删除掉的数据其实就是过期的数据。(为什么不是每隔expirationSecs就来删除一次呢?我们下面会说)。这里值得注意的是:正是因为这种分成多个桶的机制, 清理线程对于_lock的占用时间极短。只要把最后一个bucket从_buckets解下,并且向头上面添加一个新的bucket就好了:
1 synchronized(_lock) { 2 dead = _buckets.removeLast(); 3 _buckets.addFirst(new HashMap<K, V>()); 4 }
如果不是这种机制的话, 那我能想到的最傻的办法可能就是给条数据一个过期时间字段, 然后清理线程就要遍历每条数据来检查数据是否过期了。那显然要HOLD住这个锁很长时间了。
同时对于每条过期的数据TimeCacheMap会执行我们的callback函数:
1 if(_callback!=null) { 2 for(Entry<K, V> entry: dead.entrySet()) { 3 _callback.expire(entry.getKey(), entry.getValue()); 4 } 5 }
大致机制就是这样,那么我们现在回过头来看看前面的那个问题: 为什么这个清理线程是每隔expirationSecs / (numBuckets - 1) 秒的时间来检查,这样对吗?TimeCacheMap的内部有多个桶, 当你向这个TimeCacheMap里面添加数据的时候,数据总是添加到第一个桶里面去的。
1 public void put(K key, V value) { 2 synchronized(_lock) { 3 Iterator<HashMap<K, V>> it = 4 _buckets.iterator(); 5 HashMap<K, V> bucket = it.next(); 6 bucket.put(key, value); 7 while(it.hasNext()) { 8 bucket = it.next(); 9 bucket.remove(key); 10 } 11 } 12 }
我们看个例子就明白了,假设 numBuckets = 3, expirationSecs = 2。
我们先往里面填一条数据{1: 1}, 这条数据被加到第一个桶里面去, 现在TimeCacheMap的状态是:
1 [{1:1}, {}, {}]
过了1秒钟之后(expirationSecs / (numBuckets - 1) = 2 / (3 - 1) = 1)。清理线程干掉最后一个HashMap,并且在头上添加一个新的空HashMap, 现在TimeCacheMap的状态是:
1 [{}, {1:1}, {}]
再过了一秒钟, 同上, TimeCacheMap的状态会变成:
1 [{}, {}, {1:1}]
再过一秒钟, 现在{1:1}是最后一个TimeCacheMap了,就被干掉了。
所以从{1:1}被加入到这个TimeCacheMap到被干掉一共用了3秒,其实这个3秒就等于:
1 3 = expirationSecs * ( 1 + 1 / (numBuckets - 1))
它的注释里面也提到了这一点
Expires keys that have not been updated in the configured number of seconds.
The algorithm used will take between expirationSecs and
expirationSecs * (1 + 1 / (numBuckets-1)) to actually expire the message.
那为什么说时间是expirationSecs到expirationSecs * (1 + 1 / (numBuckets-1))之间呢?因为线程调度的不确定性。

浙公网安备 33010602011771号