Twitter Storm源代码分析之TimeCacheMap

转自:http://xumingming.sinaapp.com/395/twitter-storm-code-analysis-timecahcemap/


TimeCacheMap是Twitter Storm里面一个类, Storm使用它来保存那些最近活跃的对象,并且可以自动删除那些已经过期的对象。这个类设计的很巧妙, 我们来看一下。

TimeCacheMap里面的数据是保存在内部变量_bucket里面的:

1 private LinkedList<HashMap<K, V>> _buckets;

在这点上跟ConcurrentHashMap有点类似, ConcurrentHashMap是利用多个bucket来缩小锁的粒度, 从而实现高并发的读写。而TimeCacheMap则是利用多个bucket来使得数据清理线程占用锁的时间最小。

首先来看看TimeCacheMap的构造函数, 它的构造函数首先是生成numBuckets个空的HashMap:

1 _buckets = new LinkedList<HashMap<K, V>>();
2 for(int i=0; i<numBuckets; i++) {
3     _buckets.add(new HashMap<K, V>());
4 }

然后就是最关键的清理线程部分,TimeCacheMap使用一个单独的线程来清理那些过期的数据:

 1 final long expirationMillis = expirationSecs * 1000L;
 2 final long sleepTime = expirationMillis/(numBuckets-1);
 3 _cleaner = new Thread(new Runnable() {
 4     public void run() {
 5         try {
 6             while(true) {
 7                 Map<K, V> dead = null;
 8                 //
 9                 Time.sleep(sleepTime);
10                 synchronized(_lock) {
11                   dead = _buckets.removeLast();
12                   _buckets.addFirst(
13                              new HashMap<K, V>());
14                 }
15                 if(_callback!=null) {
16                     for(Entry<K, V> entry:
17                                 dead.entrySet()) {
18                       _callback.expire(entry.getKey(),
19                                     entry.getValue());
20                     }
21                 }
22             }
23         } catch (InterruptedException ex) {
24  
25         }
26     }
27 });
28 _cleaner.setDaemon(true);
29 _cleaner.start();

这个线程每隔 expirationSecs / (numBuckets - 1) 秒钟的时间去把最后一个bucket里面的数据全部都删除掉 — 这些被删除掉的数据其实就是过期的数据。(为什么不是每隔expirationSecs就来删除一次呢?我们下面会说)。这里值得注意的是:正是因为这种分成多个桶的机制, 清理线程对于_lock的占用时间极短。只要把最后一个bucket从_buckets解下,并且向头上面添加一个新的bucket就好了:

1 synchronized(_lock) {
2     dead = _buckets.removeLast();
3     _buckets.addFirst(new HashMap<K, V>());
4 }

如果不是这种机制的话, 那我能想到的最傻的办法可能就是给条数据一个过期时间字段, 然后清理线程就要遍历每条数据来检查数据是否过期了。那显然要HOLD住这个锁很长时间了。

同时对于每条过期的数据TimeCacheMap会执行我们的callback函数:

1 if(_callback!=null) {
2      for(Entry<K, V> entry: dead.entrySet()) {
3           _callback.expire(entry.getKey(), entry.getValue());
4      }
5 }

大致机制就是这样,那么我们现在回过头来看看前面的那个问题: 为什么这个清理线程是每隔expirationSecs / (numBuckets - 1) 秒的时间来检查,这样对吗?TimeCacheMap的内部有多个桶, 当你向这个TimeCacheMap里面添加数据的时候,数据总是添加到第一个桶里面去的。

 1 public void put(K key, V value) {
 2     synchronized(_lock) {
 3         Iterator<HashMap<K, V>> it =
 4                          _buckets.iterator();
 5         HashMap<K, V> bucket = it.next();
 6         bucket.put(key, value);
 7         while(it.hasNext()) {
 8             bucket = it.next();
 9             bucket.remove(key);
10         }
11     }
12 }

我们看个例子就明白了,假设 numBuckets = 3, expirationSecs = 2
我们先往里面填一条数据{1: 1}, 这条数据被加到第一个桶里面去, 现在TimeCacheMap的状态是:

1 [{1:1}, {}, {}]

过了1秒钟之后(expirationSecs / (numBuckets - 1) = 2 / (3 - 1) = 1)。清理线程干掉最后一个HashMap,并且在头上添加一个新的空HashMap, 现在TimeCacheMap的状态是:

1 [{}, {1:1}, {}]

再过了一秒钟, 同上, TimeCacheMap的状态会变成:

1 [{}, {}, {1:1}]

再过一秒钟, 现在{1:1}是最后一个TimeCacheMap了,就被干掉了。
所以从{1:1}被加入到这个TimeCacheMap到被干掉一共用了3秒,其实这个3秒就等于:

1 3 = expirationSecs * ( 1 + 1 / (numBuckets - 1))

它的注释里面也提到了这一点

    Expires keys that have not been updated in the configured number of seconds.
    The algorithm used will take between expirationSecs and
    expirationSecs * (1 + 1 / (numBuckets-1)) to actually expire the message.

那为什么说时间是expirationSecsexpirationSecs * (1 + 1 / (numBuckets-1))之间呢?因为线程调度的不确定性。

 

posted @ 2015-05-28 15:15  Mr_骆同学  阅读(118)  评论(0)    收藏  举报