HashMap与ConcurrentHashMap

HashMap:
table变量:HashMap的底层数据结构,是Node类的实体数组,用于保存key-value对;***
capacity:并不是一个成员变量,但却是一个必须要知道的概念,表示容量;
size变量:表示已存储的HashMap的key-value对的数量;
loadFactor变量:装载因子,用于衡量满的程度;
threshold变量:临界值,当超出该值时,表示table表示该扩容了;
1.可实现快速存储和检索,但其缺点是其包含的元素是无序的,这导致它在存在大量迭代的情况下表现不佳。
扩容因子:0.75
默认容量:16
每次扩容:2的n次幂
2. putVal方法
通过putVal方法将传递的key-value对添加到数组table中。

 


/**
 * Implements Map.put and related methods
 *
 * @param hash hash for key
 * @param key the key
 * @param value the value to put
 * @param onlyIfAbsent if true, don't change existing value
 * @param evict if false, the table is in creation mode.
 * @return previous value, or null if none
 */
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    /**
     * 如果当前HashMap的table数组还未定义或者还未初始化其长度,则先通过resize()进行扩容,
     * 返回扩容后的数组长度n
     */
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    //通过数组长度与hash值做按位与&运算得到对应数组下标,若该位置没有元素,则new Node直接将新元素插入
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    //否则该位置已经有元素了,我们就需要进行一些其他操作
    else {
        Node<K,V> e; K k;
        //如果插入的key和原来的key相同,则替换一下就完事了
        if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        /**
         * 否则key不同的情况下,判断当前Node是否是TreeNode,如果是则执行putTreeVal将新的元素插入
         * 到红黑树上。
         */
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        //如果不是TreeNode,则进行链表遍历
        else {
            for (int binCount = 0; ; ++binCount) {
                /**
                 * 在链表最后一个节点之后并没有找到相同的元素,则进行下面的操作,直接new Node插入,
                 * 但条件判断有可能转化为红黑树
                 */
                if ((e = p.next) == null) {
                    //直接new了一个Node
                    p.next = newNode(hash, key, value, null);
                    /**
                     * TREEIFY_THRESHOLD=8,因为binCount从0开始,也即是链表长度超过8(包含)时,
                     * 转为红黑树。
                     */
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                /**
                 * 如果在链表的最后一个节点之前找到key值相同的(和上面的判断不冲突,上面是直接通过数组
                 * 下标判断key值是否相同),则替换
                 */
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            //onlyIfAbsent为true时:当某个位置已经存在元素时不去覆盖
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    //最后判断临界值,是否扩容。
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}
3. resize方法

HashMap通过resize()方法进行扩容,容量规则为2的幂次

/**
 * Initializes or doubles table size.  If null, allocates in
 * accord with initial capacity target held in field threshold.
 * Otherwise, because we are using power-of-two expansion, the
 * elements from each bin must either stay at same index, or move
 * with a power of two offset in the new table.
 *
 * @return the table
 */
final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;
    //以前的容量大于0,也就是hashMap中已经有元素了,或者new对象的时候设置了初始容量
    if (oldCap > 0) {
        //如果以前的容量大于限制的最大容量1<<30,则设置临界值为int的最大值2^31-1
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        /**
         * 如果以前容量的2倍小于限制的最大容量,同时大于或等于默认的容量16,则设置临界值为以前临界值的2
         * 倍,因为threshold = loadFactor*capacity,capacity扩大了2倍,loadFactor不变,
         * threshold自然也扩大2倍。
         */
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }
    /**
     * 在HashMap构造器Hash(int initialCapacity, float loadFactor)中有一句代码,this.threshold      
     * = tableSizeFor(initialCapacity), 表示在调用构造器时,默认是将初始容量暂时赋值给了
     * threshold临界值,因此此处相当于将上一次的初始容量赋值给了新的容量。什么情况下会执行到这句?当调用     
     * 了HashMap(int initialCapacity)构造器,还没有添加元素时
     */
    else if (oldThr > 0)
        newCap = oldThr;
    /**
     * 调用了默认构造器,初始容量没有设置,因此使用默认容量DEFAULT_INITIAL_CAPACITY(16),临界值
     * 就是16*0.75
     */
    else {               
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    //对临界值做判断,确保其不为0,因为在上面第二种情况(oldThr > 0),并没有计算newThr
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;
    
    @SuppressWarnings({"rawtypes","unchecked"})
    /**构造新表,初始化表中数据*/
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    //将刚创建的新表赋值给table
    table = newTab;
    if (oldTab != null) {
        //遍历将原来table中的数据放到扩容后的新表中来
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                //没有链表Node节点,直接放到新的table中下标为【e.hash & (newCap - 1)】位置即可
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                //如果是treeNode节点,则树上的节点放到newTab中
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                //如果e后面还有链表节点,则遍历e所在的链表,
                else { // 保证顺序
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        //记录下一个节点
                        next = e.next;
                        /**
                         * newTab的容量是以前旧表容量的两倍,因为数组table下标并不是根据循环逐步递增
                         * 的,而是通过(table.length-1)& hash计算得到,因此扩容后,存放的位置就
                         * 可能发生变化,那么到底发生怎样的变化呢,就是由下面的算法得到.
                         *
                         * 通过e.hash & oldCap来判断节点位置通过再次hash算法后,是否会发生改变,如
                         * 果为0表示不会发生改变,如果为1表示会发生改变。到底怎么理解呢,举个例子:
                         * e.hash = 13 二进制:0000 1101
                         * oldCap = 32 二进制:0001 0000
                         *  &运算:  0  二进制:0000 0000
                         * 结论:元素位置在扩容后不会发生改变
                         */
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        /**
                         * e.hash = 18 二进制:0001 0010
                         * oldCap = 32 二进制:0001 0000
                         * &运算:  32 二进制:0001 0000
                         * 结论:元素位置在扩容后会发生改变,那么如何改变呢?
                         * newCap = 64 二进制:0010 0000
                         * 通过(newCap-1)&hash
                         * 即0001 1111 & 0001 0010 得0001 0010,32+2 = 34
                         */
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    if (loTail != null) {
                        loTail.next = null;
                        /**
                         * 若(e.hash & oldCap) == 0,下标不变,将原表某个下标的元素放到扩容表同样
                         * 下标的位置上
                         */
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        /**
                         * 若(e.hash & oldCap) != 0,将原表某个下标的元素放到扩容表中
                         * [下标+增加的扩容量]的位置上
                         */
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

 

 

线程安全性

HashMap:不是线程安全的。在多线程环境下,当多个线程同时对HashMap进行插入、删除或修改操作时,可能会出现数据不一致、死循环等问题。
例如,在HashMap进行put操作时可能会触发扩容和链表 / 红黑树的转换操作,如果多个线程同时执行这些操作,就可能导致数据结构被破坏。
ConcurrentHashMap:是线程安全的。
在 Java 7 及以前,它通过分段锁(Segment)来实现并发控制,将ConcurrentHashMap分成多个段(Segment),每个段相当于一个独立的HashMap,不同线程可以同时访问不同段的数据,只有在访问同一段时才需要获取锁。
在 Java 8 及以后,采用了更细粒度的锁机制,使用CAS(比较与交换)操作和synchronized关键字相结合的方式,对哈希桶(bucket)进行并发控制,大大提高了并发性能。

性能特点

HashMap:在单线程环境下性能较好,因为没有复杂的并发控制机制,其put、get等操作的时间复杂度在理想情况下(不考虑哈希冲突)为。
但在多线程环境下,由于不具备线程安全性,不能直接用于多线程场景,否则可能会出现性能下降甚至错误。
ConcurrentHashMap:在多线程环境下性能出色,它能够有效利用多核处理器的优势,允许多个线程同时访问不同部分,实现高效的并发操作。
不过,在低并发或者单线程场景下,由于其复杂的内部机制,性能可能会稍逊于HashMap。
迭代器的行为

HashMap:在迭代过程中,如果对HashMap进行结构修改(如添加、删除元素),会抛出ConcurrentModificationException异常。
这是因为迭代器在创建时会记录HashMap的修改次数,当发现迭代过程中修改次数发生变化时,就会判定为并发修改,从而抛出异常。
ConcurrentHashMap:它的迭代器具有弱一致性。
在迭代过程中,允许其他线程对ConcurrentHashMap进行并发的读写操作。迭代器会尽量反映迭代开始时的状态,但不保证能够反映最新的修改。
例如,在迭代过程中,新添加的元素可能不会被迭代器遍历到,已经删除的元素也可能仍然会被遍历到,这是为了在保证一定数据一致性的前提下,不影响并发性能。

联系

数据结构基础
两者都是基于哈希表(Hash Table)的数据结构来实现的。它们都通过计算键(key)的哈希值来确定元素在数组中的存储位置(桶,bucket),当出现哈希冲突时,都有相应的解决方法。
在HashMap中,当哈希冲突较小时,采用链表法,将冲突的元素存储在同一个桶对应的链表中;当链表长度超过一定阈值(默认为 8)且数组长度达到一定条件时,会将链表转换为红黑树,以提高查找效率。
ConcurrentHashMap在 Java 8 及以后也采用了类似的结构,在哈希冲突时同样使用链表或红黑树来存储冲突元素。

  

 

HashMap 和 ConcurrentHashMap 都是 Java 中用于存储键值对的集合类,它们在很多场景下都有广泛的应用,但也存在着明显的区别和一定的联系,以下为你详细介绍:
联系
继承关系与接口实现:二者都继承自 AbstractMap 类,并且都实现了 Map 接口。这意味着它们都具备存储键值对的基本功能,提供了诸如 put、get、remove 等常用的操作方法,在使用方式上有一定的相似性。
功能目标一致:它们的主要目标都是存储和管理键值对数据,允许通过键来快速查找对应的值,在很多需要进行数据映射和查找的场景中都可以使用。
区别
线程安全性
HashMap:HashMap 不是线程安全的,在多线程环境下,如果多个线程同时对 HashMap 进行读写操作,可能会导致数据不一致、抛出 ConcurrentModificationException 异常甚至造成死循环等问题。例如,一个线程正在对 HashMap 进行扩容操作,而另一个线程同时进行插入操作,就可能会破坏数据结构。
ConcurrentHashMap:ConcurrentHashMap 是线程安全的,它在设计上采用了分段锁(JDK 7 及以前)或 CAS + synchronized(JDK 8 及以后)的机制来保证多线程环境下的并发访问安全。多个线程可以同时对 ConcurrentHashMap 进行读写操作,而不会出现数据不一致等问题。
性能表现
HashMap:在单线程环境下,由于没有线程同步的开销,HashMap 的性能通常比较高,读写操作的时间复杂度都是 O (1)(平均情况下)。
ConcurrentHashMap:在多线程环境下,ConcurrentHashMap 的性能要优于 HashMap。因为它通过锁分段或 CAS 等机制,允许多个线程同时访问不同的部分,从而提高了并发性能。但在单线程环境下,由于 ConcurrentHashMap 存在一定的同步开销,性能可能会略低于 HashMap。
锁机制
HashMap:没有任何锁机制,不提供线程同步功能。
ConcurrentHashMap:
JDK 7 及以前:采用分段锁机制,将整个哈希表分成多个段(Segment),每个段相当于一个小的 HashMap,不同的段可以被不同的线程同时访问,只有在访问同一个段时才需要进行同步,从而提高了并发性能。
JDK 8 及以后:摒弃了分段锁,采用 CAS + synchronized 来实现并发控制。当发生哈希冲突时,会将链表转换为红黑树(当链表长度大于 8 且数组长度大于 64 时),并使用 synchronized 对节点进行加锁,粒度更细,进一步提高了并发性能。
迭代器的一致性
HashMap:HashMap 的迭代器是快速失败(fail - fast)的,这意味着当在迭代过程中发现 HashMap 的结构被修改(如插入、删除元素等),会立即抛出 ConcurrentModificationException 异常。
ConcurrentHashMap:ConcurrentHashMap 的迭代器是弱一致(weakly - consistent)的,它可以容忍在迭代过程中其他线程对 ConcurrentHashMap 的结构进行修改,不会抛出 ConcurrentModificationException 异常,但可能会反映出迭代器创建之后的部分修改。

 

posted @ 2021-03-17 20:40  余生请多指教ANT  阅读(95)  评论(0)    收藏  举报