Map-ConcurrentHashMap-jdk1.7
问题:
-
为什么HashTable慢? 它的并发度是什么? 那么ConcurrentHashMap并发度是什么?
-
ConcurrentHashMap在JDK1.7和JDK1.8中实现有什么差别? JDK1.8解決了JDK1.7中什么问题
-
ConcurrentHashMap JDK1.7实现的原理是什么? 分段锁机制
-
ConcurrentHashMap JDK1.8实现的原理是什么? 数组+链表+红黑树,CAS
-
ConcurrentHashMap JDK1.7中Segment数(concurrencyLevel)默认值是多少? 为何一旦初始化就不可再扩容?
-
ConcurrentHashMap JDK1.7说说其put的机制?
-
ConcurrentHashMap JDK1.7是如何扩容的? rehash(注:segment 数组不能扩容,扩容是 segment 数组某个位置内部的数组 HashEntry<K,V>[] 进行扩容)
-
ConcurrentHashMap JDK1.8是如何扩容的? tryPresize
-
ConcurrentHashMap JDK1.8链表转红黑树的时机是什么? 临界值为什么是8?
-
ConcurrentHashMap JDK1.8是如何进行数据迁移的? transfer
为什么HashTable慢
Hashtable之所以效率低下主要是因为其实现使用了synchronized关键字对put等操作进行加锁,而synchronized关键字加锁是对整个对象进行加锁,也就是说在进行put等修改Hash表的操作时,锁住了整个Hash表,从而使得其表现的效率低下。
ConcurrentHashMap - JDK 1.7
ConcurrentHashMap是由Segments数组结构和HashEntry数组结构组成.Segment是一种可重入锁(ReentrantLock),在ConcurrentHashMap里扮演锁的色;
HashEntry则用于存储键值对数据.一个ConcurrentHashMap里包含一个Segment组.Segment的结构和HashMap类似,是一种数组加链表的结构.
一个Segment里包含一个HashEntry数组,每个HashEntry是一个链表结构的元素,每个Segment守护者一个HashEntry数组里面的元素,当对HashEntry数组的数据进行修改时,必须先获得与它对应的Segment锁。


concurrencyLevel: 并行级别、并发数、Segment 数,怎么翻译不重要,理解它。默认是 16,也就是说 ConcurrentHashMap 有 16 个 Segments,所以理论上,这个时候,最多可以同时支持 16 个线程并发写,只要它们的操作分别分布在不同的 Segment 上。这个值可以在初始化的时候设置为其他值,但是一旦初始化以后,它是不可以扩容的。构造函数
-
initialCapacity: 初始容量,这个值指的是整个 ConcurrentHashMap 的初始容量,实际操作的时候需要平均分给每个 Segment。
-
loadFactor: 负载因子,之前我们说了,Segment 数组不可以扩容,所以这个负载因子是给每个 Segment 内部使用的。
public ConcurrentHashMap(int initialCapacity, float loadFactor, int concurrencyLevel) { if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0) throw new IllegalArgumentException(); if (concurrencyLevel > MAX_SEGMENTS) concurrencyLevel = MAX_SEGMENTS; // Find power-of-two sizes best matching arguments int sshift = 0; int ssize = 1; // 计算并行级别 ssize,因为要保持并行级别是 2 的 n 次方 while (ssize < concurrencyLevel) { ++sshift; ssize <<= 1; } // 我们这里先不要那么烧脑,用默认值,concurrencyLevel 为 16,sshift 为 4 // 那么计算出 segmentShift 为 28,segmentMask 为 15,后面会用到这两个值 this.segmentShift = 32 - sshift; this.segmentMask = ssize - 1; if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; // initialCapacity 是设置整个 map 初始的大小, // 这里根据 initialCapacity 计算 Segment 数组中每个位置可以分到的大小 // 如 initialCapacity 为 64,那么每个 Segment 或称之为"槽"可以分到 4 个 int c = initialCapacity / ssize; if (c * ssize < initialCapacity) ++c; // 默认 MIN_SEGMENT_TABLE_CAPACITY 是 2,这个值也是有讲究的,因为这样的话,对于具体的槽上, // 插入一个元素不至于扩容,插入第二个的时候才会扩容 int cap = MIN_SEGMENT_TABLE_CAPACITY; while (cap < c) cap <<= 1; // 创建 Segment 数组, // 并创建数组的第一个元素 segment[0] Segment<K,V> s0 = new Segment<K,V>(loadFactor, (int)(cap * loadFactor), (HashEntry<K,V>[])new HashEntry[cap]); Segment<K,V>[] ss = (Segment<K,V>[])new Segment[ssize]; // 往数组写入 segment[0] UNSAFE.putOrderedObject(ss, SBASE, s0); // ordered write of segments[0] this.segments = ss; }
put操作
首先对key进行第一次hash,通过hash值确定segment的位置
2、然后在segment内进行操作,获取锁
3、接着获取当前segment的HashEntry数组,然后对key进行第二次hash,通过hash值确定在HashEntry数组的索引位置。
4、然后对当前索引的HashEntry链进行遍历,如果有重复的key,则替换;如果没有重复的,则插入关闭锁
可见,在整个put过程中,进行了2次hash操作,才最终确定key的位置。
public V put(K key, V value) { Segment<K,V> s; //ConcurrentHashMap的key和value都不能为null if (value == null) throw new NullPointerException(); //这里对key求hash值,并确定应该放到segment数组的索引位置 int hash = hash(key); //j为索引位置,思路和HashMap的思路一样,这里不再多说 int j = (hash >>> segmentShift) & segmentMask; if ((s = (Segment<K,V>)UNSAFE.getObject // nonvolatile; recheck (segments, (j << SSHIFT) + SBASE)) == null) // in ensureSegment s = ensureSegment(j); //这里很关键,找到了对应的Segment,则把元素放到Segment中去 return s.put(key, hash, value, false); } final V put(K key, int hash, V value, boolean onlyIfAbsent) { //这里是并发的关键,每一个Segment进行put时,都会加锁 HashEntry<K,V> node = tryLock() ? null : scanAndLockForPut(key, hash, value); V oldValue; try { //tab是当前segment所连接的HashEntry数组 HashEntry<K,V>[] tab = table; //确定key的hash值所在HashEntry数组的索引位置 int index = (tab.length - 1) & hash; //取得要放入的HashEntry链的链头 HashEntry<K,V> first = entryAt(tab, index); //遍历当前HashEntry链 for (HashEntry<K,V> e = first;;) { //如果链头不为null if (e != null) { K k; //如果在该链中找到相同的key,则用新值替换旧值,并退出循环 if ((k = e.key) == key || (e.hash == hash && key.equals(k))) { oldValue = e.value; if (!onlyIfAbsent) { e.value = value; ++modCount; } break; } //如果没有和key相同的,一直遍历到链尾,链尾的next为null,进入到else e = e.next; } else {//如果没有找到key相同的,则把当前Entry插入到链头 if (node != null) node.setNext(first); else node = new HashEntry<K,V>(hash, key, value, first); //此时数量+1 int c = count + 1; if (c > threshold && tab.length < MAXIMUM_CAPACITY) //如果超出了限制,要进行扩容 rehash(node); else setEntryAt(tab, index, node); ++modCount; count = c; oldValue = null; break; } } } finally { //最后释放锁 unlock(); } return oldValue; }
ConcurrentHashMap Size实现
因为ConcurrentHashMap 是可以并发插入数据的,所以在准确计算元素时存在一定的难度,一般的思路是统计每个Segment对象中的元素个数,然后进行累加,但是这种方式计算出来的结果不一定是准确的,因为在计算后面几个Segment的元素是,已经计算过的Segment同时可能有数据的插入或者删除。在JDK7的实现中,采用了如下方式:
先采用不加锁的方式,连续计算元素的个数,最多计算3次:
- 如果前后两次计算结果相同,则说明计算出来的元素个数是准确的;
- 如果前后两次计算结构都不同,则给每个Segment进行加锁,再计算一次元素的个数。
Unsafe类和内存屏障简介
java内存模型中使用的所谓的LoadLoad、LoadStore、StoreStore、StoreLoad这几个屏障就是基于这两个屏障实现的。
写屏障的作用就是禁止了指令的重排序,并且配合C语言中的volatile关键字(C中的volatile关键字只能保证可见性不能保证有序性),
个人理解就是通过添加内存屏障+C中的Volatile实现了类似Java中的Volatile关键字语义,即在putObjectVolatile方法中通过内存屏障保证了有序性,
再通过volatile保证将对指定地址的操作是马上写入到共享的主存中而不是线程自身的本地工作内存中,这样配合下面的getObjectVolatile方法,
就可以确保每次读取到的就是最新的数据。
关于ConcurrentHashMap的实现,不论是在jdk1.7还是jdk1.8版本中ConcurrentHashMap中使用的最为核心也是最为频繁的就是Unsafe类中的各种native本地方法。所以这里有必要先介绍一下其中用的最多的几个Unsafe类中的核心方法。主要的几个方法是:
Unsafe.putObjectVolatile(obj,long,obj2) 有write_barrier,即写屏障
Unsafe.getObjectVolatile 有read_barrier即读屏障,这个读屏障的作用就是强制去读取主存中的数据而不是线程自己的本地工作内存,这样就确保了读取到的一定是最新的数据。
Unsafe.putOrderedObject 只保证了可见性,有序性通过锁实现
void sun::misc::Unsafe::putObjectVolatile (jobject obj, jlong offset, jobject value) { write_barrier (); volatile jobject *addr = (jobject *) ((char *) obj + offset); *addr = value; } void sun::misc::Unsafe::putObject (jobject obj, jlong offset, jobject value) { jobject *addr = (jobject *) ((char *) obj + offset); *addr = value; }//用于和putObjectVolatile进行对比 jobject sun::misc::Unsafe::getObjectVolatile (jobject obj, jlong offset) { volatile jobject *addr = (jobject *) ((char *) obj + offset); jobject result = *addr; read_barrier (); return result; } void sun::misc::Unsafe::putOrderedObject (jobject obj, jlong offset, jobject value) { volatile jobject *addr = (jobject *) ((char *) obj + offset); *addr = value; }
参考:https://www.pdai.tech/md/java/thread/java-thread-x-juc-collection-ConcurrentHashMap.html
浙公网安备 33010602011771号