HashMap与ConcurrentHashMap
HashMap:
table变量:HashMap的底层数据结构,是Node类的实体数组,用于保存key-value对;***
capacity:并不是一个成员变量,但却是一个必须要知道的概念,表示容量;
size变量:表示已存储的HashMap的key-value对的数量;
loadFactor变量:装载因子,用于衡量满的程度;
threshold变量:临界值,当超出该值时,表示table表示该扩容了;
1.可实现快速存储和检索,但其缺点是其包含的元素是无序的,这导致它在存在大量迭代的情况下表现不佳。
扩容因子:0.75
默认容量:16
每次扩容:2的n次幂
2. putVal方法
通过putVal方法将传递的key-value对添加到数组table中。

/**
* Implements Map.put and related methods
*
* @param hash hash for key
* @param key the key
* @param value the value to put
* @param onlyIfAbsent if true, don't change existing value
* @param evict if false, the table is in creation mode.
* @return previous value, or null if none
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
/**
* 如果当前HashMap的table数组还未定义或者还未初始化其长度,则先通过resize()进行扩容,
* 返回扩容后的数组长度n
*/
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//通过数组长度与hash值做按位与&运算得到对应数组下标,若该位置没有元素,则new Node直接将新元素插入
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
//否则该位置已经有元素了,我们就需要进行一些其他操作
else {
Node<K,V> e; K k;
//如果插入的key和原来的key相同,则替换一下就完事了
if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
e = p;
/**
* 否则key不同的情况下,判断当前Node是否是TreeNode,如果是则执行putTreeVal将新的元素插入
* 到红黑树上。
*/
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
//如果不是TreeNode,则进行链表遍历
else {
for (int binCount = 0; ; ++binCount) {
/**
* 在链表最后一个节点之后并没有找到相同的元素,则进行下面的操作,直接new Node插入,
* 但条件判断有可能转化为红黑树
*/
if ((e = p.next) == null) {
//直接new了一个Node
p.next = newNode(hash, key, value, null);
/**
* TREEIFY_THRESHOLD=8,因为binCount从0开始,也即是链表长度超过8(包含)时,
* 转为红黑树。
*/
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
/**
* 如果在链表的最后一个节点之前找到key值相同的(和上面的判断不冲突,上面是直接通过数组
* 下标判断key值是否相同),则替换
*/
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
//onlyIfAbsent为true时:当某个位置已经存在元素时不去覆盖
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
//最后判断临界值,是否扩容。
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
3. resize方法
HashMap通过resize()方法进行扩容,容量规则为2的幂次
/**
* Initializes or doubles table size. If null, allocates in
* accord with initial capacity target held in field threshold.
* Otherwise, because we are using power-of-two expansion, the
* elements from each bin must either stay at same index, or move
* with a power of two offset in the new table.
*
* @return the table
*/
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//以前的容量大于0,也就是hashMap中已经有元素了,或者new对象的时候设置了初始容量
if (oldCap > 0) {
//如果以前的容量大于限制的最大容量1<<30,则设置临界值为int的最大值2^31-1
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
/**
* 如果以前容量的2倍小于限制的最大容量,同时大于或等于默认的容量16,则设置临界值为以前临界值的2
* 倍,因为threshold = loadFactor*capacity,capacity扩大了2倍,loadFactor不变,
* threshold自然也扩大2倍。
*/
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
/**
* 在HashMap构造器Hash(int initialCapacity, float loadFactor)中有一句代码,this.threshold
* = tableSizeFor(initialCapacity), 表示在调用构造器时,默认是将初始容量暂时赋值给了
* threshold临界值,因此此处相当于将上一次的初始容量赋值给了新的容量。什么情况下会执行到这句?当调用
* 了HashMap(int initialCapacity)构造器,还没有添加元素时
*/
else if (oldThr > 0)
newCap = oldThr;
/**
* 调用了默认构造器,初始容量没有设置,因此使用默认容量DEFAULT_INITIAL_CAPACITY(16),临界值
* 就是16*0.75
*/
else {
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
//对临界值做判断,确保其不为0,因为在上面第二种情况(oldThr > 0),并没有计算newThr
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
/**构造新表,初始化表中数据*/
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
//将刚创建的新表赋值给table
table = newTab;
if (oldTab != null) {
//遍历将原来table中的数据放到扩容后的新表中来
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
//没有链表Node节点,直接放到新的table中下标为【e.hash & (newCap - 1)】位置即可
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
//如果是treeNode节点,则树上的节点放到newTab中
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
//如果e后面还有链表节点,则遍历e所在的链表,
else { // 保证顺序
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
//记录下一个节点
next = e.next;
/**
* newTab的容量是以前旧表容量的两倍,因为数组table下标并不是根据循环逐步递增
* 的,而是通过(table.length-1)& hash计算得到,因此扩容后,存放的位置就
* 可能发生变化,那么到底发生怎样的变化呢,就是由下面的算法得到.
*
* 通过e.hash & oldCap来判断节点位置通过再次hash算法后,是否会发生改变,如
* 果为0表示不会发生改变,如果为1表示会发生改变。到底怎么理解呢,举个例子:
* e.hash = 13 二进制:0000 1101
* oldCap = 32 二进制:0001 0000
* &运算: 0 二进制:0000 0000
* 结论:元素位置在扩容后不会发生改变
*/
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
/**
* e.hash = 18 二进制:0001 0010
* oldCap = 32 二进制:0001 0000
* &运算: 32 二进制:0001 0000
* 结论:元素位置在扩容后会发生改变,那么如何改变呢?
* newCap = 64 二进制:0010 0000
* 通过(newCap-1)&hash
* 即0001 1111 & 0001 0010 得0001 0010,32+2 = 34
*/
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
/**
* 若(e.hash & oldCap) == 0,下标不变,将原表某个下标的元素放到扩容表同样
* 下标的位置上
*/
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
/**
* 若(e.hash & oldCap) != 0,将原表某个下标的元素放到扩容表中
* [下标+增加的扩容量]的位置上
*/
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
线程安全性 HashMap:不是线程安全的。在多线程环境下,当多个线程同时对HashMap进行插入、删除或修改操作时,可能会出现数据不一致、死循环等问题。 例如,在HashMap进行put操作时可能会触发扩容和链表 / 红黑树的转换操作,如果多个线程同时执行这些操作,就可能导致数据结构被破坏。 ConcurrentHashMap:是线程安全的。 在 Java 7 及以前,它通过分段锁(Segment)来实现并发控制,将ConcurrentHashMap分成多个段(Segment),每个段相当于一个独立的HashMap,不同线程可以同时访问不同段的数据,只有在访问同一段时才需要获取锁。 在 Java 8 及以后,采用了更细粒度的锁机制,使用CAS(比较与交换)操作和synchronized关键字相结合的方式,对哈希桶(bucket)进行并发控制,大大提高了并发性能。 性能特点 HashMap:在单线程环境下性能较好,因为没有复杂的并发控制机制,其put、get等操作的时间复杂度在理想情况下(不考虑哈希冲突)为。 但在多线程环境下,由于不具备线程安全性,不能直接用于多线程场景,否则可能会出现性能下降甚至错误。 ConcurrentHashMap:在多线程环境下性能出色,它能够有效利用多核处理器的优势,允许多个线程同时访问不同部分,实现高效的并发操作。 不过,在低并发或者单线程场景下,由于其复杂的内部机制,性能可能会稍逊于HashMap。 迭代器的行为 HashMap:在迭代过程中,如果对HashMap进行结构修改(如添加、删除元素),会抛出ConcurrentModificationException异常。 这是因为迭代器在创建时会记录HashMap的修改次数,当发现迭代过程中修改次数发生变化时,就会判定为并发修改,从而抛出异常。 ConcurrentHashMap:它的迭代器具有弱一致性。 在迭代过程中,允许其他线程对ConcurrentHashMap进行并发的读写操作。迭代器会尽量反映迭代开始时的状态,但不保证能够反映最新的修改。 例如,在迭代过程中,新添加的元素可能不会被迭代器遍历到,已经删除的元素也可能仍然会被遍历到,这是为了在保证一定数据一致性的前提下,不影响并发性能。 联系 数据结构基础 两者都是基于哈希表(Hash Table)的数据结构来实现的。它们都通过计算键(key)的哈希值来确定元素在数组中的存储位置(桶,bucket),当出现哈希冲突时,都有相应的解决方法。 在HashMap中,当哈希冲突较小时,采用链表法,将冲突的元素存储在同一个桶对应的链表中;当链表长度超过一定阈值(默认为 8)且数组长度达到一定条件时,会将链表转换为红黑树,以提高查找效率。 ConcurrentHashMap在 Java 8 及以后也采用了类似的结构,在哈希冲突时同样使用链表或红黑树来存储冲突元素。
HashMap 和 ConcurrentHashMap 都是 Java 中用于存储键值对的集合类,它们在很多场景下都有广泛的应用,但也存在着明显的区别和一定的联系,以下为你详细介绍: 联系 继承关系与接口实现:二者都继承自 AbstractMap 类,并且都实现了 Map 接口。这意味着它们都具备存储键值对的基本功能,提供了诸如 put、get、remove 等常用的操作方法,在使用方式上有一定的相似性。 功能目标一致:它们的主要目标都是存储和管理键值对数据,允许通过键来快速查找对应的值,在很多需要进行数据映射和查找的场景中都可以使用。 区别 线程安全性 HashMap:HashMap 不是线程安全的,在多线程环境下,如果多个线程同时对 HashMap 进行读写操作,可能会导致数据不一致、抛出 ConcurrentModificationException 异常甚至造成死循环等问题。例如,一个线程正在对 HashMap 进行扩容操作,而另一个线程同时进行插入操作,就可能会破坏数据结构。 ConcurrentHashMap:ConcurrentHashMap 是线程安全的,它在设计上采用了分段锁(JDK 7 及以前)或 CAS + synchronized(JDK 8 及以后)的机制来保证多线程环境下的并发访问安全。多个线程可以同时对 ConcurrentHashMap 进行读写操作,而不会出现数据不一致等问题。 性能表现 HashMap:在单线程环境下,由于没有线程同步的开销,HashMap 的性能通常比较高,读写操作的时间复杂度都是 O (1)(平均情况下)。 ConcurrentHashMap:在多线程环境下,ConcurrentHashMap 的性能要优于 HashMap。因为它通过锁分段或 CAS 等机制,允许多个线程同时访问不同的部分,从而提高了并发性能。但在单线程环境下,由于 ConcurrentHashMap 存在一定的同步开销,性能可能会略低于 HashMap。 锁机制 HashMap:没有任何锁机制,不提供线程同步功能。 ConcurrentHashMap: JDK 7 及以前:采用分段锁机制,将整个哈希表分成多个段(Segment),每个段相当于一个小的 HashMap,不同的段可以被不同的线程同时访问,只有在访问同一个段时才需要进行同步,从而提高了并发性能。 JDK 8 及以后:摒弃了分段锁,采用 CAS + synchronized 来实现并发控制。当发生哈希冲突时,会将链表转换为红黑树(当链表长度大于 8 且数组长度大于 64 时),并使用 synchronized 对节点进行加锁,粒度更细,进一步提高了并发性能。 迭代器的一致性 HashMap:HashMap 的迭代器是快速失败(fail - fast)的,这意味着当在迭代过程中发现 HashMap 的结构被修改(如插入、删除元素等),会立即抛出 ConcurrentModificationException 异常。 ConcurrentHashMap:ConcurrentHashMap 的迭代器是弱一致(weakly - consistent)的,它可以容忍在迭代过程中其他线程对 ConcurrentHashMap 的结构进行修改,不会抛出 ConcurrentModificationException 异常,但可能会反映出迭代器创建之后的部分修改。
本文来自博客园,作者:余生请多指教ANT,转载请注明原文链接:https://www.cnblogs.com/wangbiaohistory/p/14551798.html

浙公网安备 33010602011771号