专栏首页JAVA烂猪皮深度解析ConcurrentHashMap1.8源码分析

深度解析ConcurrentHashMap1.8源码分析

想必大家对HashMap数据结构并不陌生,JDK1.7采用的是数组+链表的方式,JDK1.8采用的是数组+链表+红黑树的方式。虽然JDK1.8对于HashMap有了很大的改进,提高了存取效率,但是线程安全的问题不可忽视,所以就有了线程安全的解决方案,比如在方法上加synchronized同步锁的HashTable,或者并发包中的ConcurrentHashMap线程安全类,本文就来和大家一起探讨一下关于ConcurrentHashMap的源码,版本是JDK1.8,下面让我们正式开始吧。

备注:大家需要对HashMap1.8源码有一些了解,在原来HashMap1.8源码中比较常见的知识点本文不会具体展开。

内容导航

  • 数组初始化线程安全实现
  • put(key,value)线程安全实现
  • transfer扩容及不同的扩容场景

put(key,value)方法

不妨先以一段大家熟悉的代码开始本文的旅程

ConcurrentHashMap<Integer,String> map=new ConcurrentHashMap<Integer, String>();
map.put(1,"Zhang");

当我们在put元素时,点开put方法的源码会发现,这里调用了一个putVal()的方法,同时将key和value作为参数传入

public V put(K key, V value) {
        return putVal(key, value, false);
}

继续点击putVal()方法,然后我们看看这里到底实现了什么

//key或者value都不能为空
if (key == null || value == null) throw new NullPointerException();
//计算hash值,实际上就是得到一个int类型的数,只是需要对这个数进行处理,目的是为了确定key,value组成的Node节点在数组下标中的位置
int hash = spread(key.hashCode());

不妨先看下spread(key.hashCode())的实现

key.hashCode()实际上调用的是native的方法,目的是得到一个整形数,为了使得这个整形数尽可能不一样,所以要对高16位和低16位进行异或运算,尽可能利用好每一位的值
static final int spread(int h) {
    //对key.hashCode的结果进行高16位和低16位的运算
    return (h ^ (h >>> 16)) & HASH_BITS;
}

接下来就是要初始化这个数组的大小,因为数组不初始化,代表key,value的每个Node类也不能放到对应的位置

if (tab == null || (n = tab.length) == 0)
    //初始化数组的大小
     tab = initTable();
private final Node<K,V>[] initTable() {
    Node<K,V>[] tab; int sc;
    //只有当数组为空或者大小为0的时候才对数组进行初始化
    while ((tab = table) == null || tab.length == 0) {
        //这里其实就是用一个sizeCtl记录是否已经有线程在进行初始化操作,如果有,则让出CPU的资源,也就是保证只有一个线程对数组进行初始化操作,从而保证线程安全。
        if ((sc = sizeCtl) < 0)
            Thread.yield(); // lost initialization race; just spin
        //使用CAS乐观锁机制比较SIZECTL和sc是否相等,只有当前值和内存中最新值相等的时候,才会将当前值赋值为-1,一旦被赋值为-1,上面有其他线程进来,就直接执行了Thread.yeild()方法了
        else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
            try {
                if ((tab = table) == null || tab.length == 0) {
                    //三元运算符得到数组默认大小,点击DEFAULT_CAPACITY发现是16,这点和HashMap是一样的
                    int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                    @SuppressWarnings("unchecked")
                    //创建Node类型的数组,真正初始化的地方
                    Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                    table = tab = nt;
                    //计算扩容的标准,采用的是位移运算,因为效率更高,sc最终结果为12
                    sc = n - (n >>> 2);
                }
            } finally {
                //不管无论最终将sc赋值为sizeCtl,这时候sizeCtl结果为12
                sizeCtl = sc;
            }
            break;
        }
    }
    return tab;
}

当数组初始化完成之后,就需要将key,value创建出来的Node节点放到数组中对应的位置了,分为几种情况,下面这种是原来某个位置就没有元素值,但是为了保证线程安全,放到多个线程同时添加,也使用CAS乐观锁的机制进行添加。

//根据(n-1)&hash的结果确认当前节点所在的位置是否有元素,效果和hash%n是一样的,只是&运算效率更高,这里hashmap也是这样做的,就不做更多赘述了
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
    //使用CAS乐观锁机制向对应的下标中添加对应的Node
    if (casTabAt(tab, i, null,
        new Node<K,V>(hash, key, value, null)))
        break;                   // no lock when adding to empty bin
}
//f实际上是当前数组下标的Node节点,这里判断它的hash值是否为MOVED,也就是-1,如果是-1,就调用helpTransfer(tab,f)方法帮助其他线程完成扩容操作,然后再添加元素。
else if ((fh = f.hash) == MOVED)
     tab = helpTransfer(tab, f);

接下来就要考虑数组具体下标位置有元素的情况,这时候就需要把Node节点向当前节点下进行顺延,形成链表或者红黑树的结构,还有一种情况就是key值相同,value值不能,这时候只需要进行一个value值的替换即可。

V oldVal = null;
//数组初始化和在数组下标中插入Node时,为了保证线程安全使用的是CAS无锁化机制
//那元素继续往下插入时,线程安全的问题怎么保证呢?可以使用synchronized关键字
//发现同步代码块中锁的对象是f,也就是当前数组下标的元素,这样不同的数组下标之间彼此互相不影响。
synchronized (f) {
    //再次确认当前头结点是否为f
    if (tabAt(tab, i) == f) {
        if (fh >= 0) {
            binCount = 1;
            for (Node<K,V> e = f;; ++binCount) {
                K ek;
                //第一种情况,发现是key值相同,只需要替换掉oldValue即可
                if (e.hash == hash &&
                    ((ek = e.key) == key ||
                     (ek != null && key.equals(ek)))) {
                    oldVal = e.val;
                    if (!onlyIfAbsent)
                        e.val = value;
                    break;
                }
                //第二种情况,按照链表的方式进行插入
                Node<K,V> pred = e;
                if ((e = e.next) == null) {
                    pred.next = new Node<K,V>(hash, key,
                                              value, null);
                    break;
                }
            }
        }
        //第三种情况,按照红黑树的方式进行插入
        else if (f instanceof TreeBin) {
            Node<K,V> p;
            binCount = 2;
            if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                  value)) != null) {
                oldVal = p.val;
                if (!onlyIfAbsent)
                    p.val = value;
            }
        }
    }
}
if (binCount != 0) {
    //一般链表转红黑树是节点数>8的时候,但不是一旦某个数组下标的节点数大于8就转成红黑树,也可以通过调整数组的容量来解决,比如treeifyBin中进行的
    if (binCount >= TREEIFY_THRESHOLD)
        treeifyBin(tab, i);
    //说明上面有需要替换掉旧值的节点
    if (oldVal != null)
        return oldVal;
    break;
}

当添加完一个key,value方式的Node之后,就需要检查是否整个数据结构中的节点数超过扩容标准比如12,如果超过了就需要进行数组大小的扩容,先调用addCount()方法,因为第二个参数check大于0,所以直接看里面这段代码。

if (check >= 0) {
    Node<K,V>[] tab, nt; int n, sc;
    while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
           (n = tab.length) < MAXIMUM_CAPACITY) {
        //通过resizeStamp(n),n是数组大小,得到一个int的结果,赋值给rs保存
        int rs = resizeStamp(n);
        if (sc < 0) {
            if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                transferIndex <= 0)
                break;
            if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                transfer(tab, nt);
        }
        //因为sc<0不成立,所以会来到这段代码
        //这里通过CAS的方式比较SIZECTL和sc的值,当两者相等时,会执行rs<<RESIZE<STAMP_SHIFT+2赋值操作,这个结果值是一个负数,表示当前正在执行扩容操作的线程数量
        else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                     (rs << RESIZE_STAMP_SHIFT) + 2))
            //调用transfer方法进行真正的扩容操作
            transfer(tab, null);
        s = sumCount();
    }
}

扩容操作tranfer()

在concurrenthashmap中的扩容操作可能不止一个线程,所以每个线程就需要分工合作完成扩容,也就是每个线程需要领取自己负责的task,当然前提是得要有一个新的数组,这样才能将老数组中的Node节点搬移到新数组中。

int n = tab.length, stride;
//确定线程负责数组大小的范围
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
    stride = MIN_TRANSFER_STRIDE; // subdivide range
//判断新的数组是否为null,为空则进行创建,比如数组原来的大小是16,2的N次幂,扩容也需要双倍扩容
if (nextTab == null) {            // initiating
    try {
        @SuppressWarnings("unchecked")
        //采用位移运算进行双倍扩容
        Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
        nextTab = nt;
    } catch (Throwable ex) {      // try to cope with OOME
        sizeCtl = Integer.MAX_VALUE;
        return;
    }
    nextTable = nextTab;
    //使用transferIndex变量记录数组的大小,表示线程进行扩容的时候,是从后往前进行的
    transferIndex = n;
}

接下来就要进行搬移工作了,我们需要用一些标识记录一下搬移的完成状态,同时线程将某个数组下标的节点搬移完成之后也要让别人知道,同时也能知道有线程正在进行扩容操作。

int nextn = nextTab.length;
//某个下标节点完成之后的节点类型,实际上就是继承了Node节点,只不过点进去发现它的hash值为MOVED也就是-1
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
boolean advance = true;
boolean finishing = false; // to ensure sweep before committing nextTab
Node<K,V> f; int fh;
//i指向当前数组的下标,通过while循环遍历--i,从而知道当前线程拿到的一个区间范围
while (advance) {
    int nextIndex, nextBound;
    //一个数组下标一个数组下标的处理
    if (--i >= bound || finishing)
        advance = false;
    //表示已经没有需要搬运的节点了,将advance赋值为false
    else if ((nextIndex = transferIndex) <= 0) {
        i = -1;
        advance = false;
    }
    //不同的线程搬运的内容,不断地将transferindex的值变小
    else if (U.compareAndSwapInt
             (this, TRANSFERINDEX, nextIndex,
              nextBound = (nextIndex > stride ?
                           nextIndex - stride : 0))) {
        bound = nextBound;
        i = nextIndex - 1;
        advance = false;
    }
}
 if (i < 0 || i >= n || i + n >= nextn) {
     int sc;
     //finishing等于true就表示所有的线程都搬运完了,做最后的收尾工作
     //比如将新数组的内容赋值到table,扩容标准由原来的12变成24
     if (finishing) {
         nextTable = null;
         table = nextTab;
         sizeCtl = (n << 1) - (n >>> 1);
         return;
     }
     //这里是每次有一个线程完成搬运工作,就将线程总数量-1
     if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
         if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
             return;
         finishing = advance = true;
         i = n; // recheck before commit
     }
 }
//如果某个线程的某个数组下标搬运完成,则将该头节点赋值为fwd类型的,其实就是hash值为MOVED
else if ((f = tabAt(tab, i)) == null)
     advance = casTabAt(tab, i, null, fwd);
//表示已经搬运完成
else if ((fh = f.hash) == MOVED)
    advance = true; // already processed

接下来就是每个线程真正在搬运代码的过程,其实这块和hashmap1.8中的resize后面的过程很类似

 synchronized (f) {
     //再次检查当前数组下标的节点是否为f
     if (tabAt(tab, i) == f) {
         Node<K,V> ln, hn;
         if (fh >= 0) {
             int runBit = fh & n;
             Node<K,V> lastRun = f;
             for (Node<K,V> p = f.next; p != null; p = p.next) {
                 //新节点的位置要么在原来的位置,要么在原来的位置+原来数组的大小,这点和hashmap中一样
                 //p.hash&n  也就是判断这个结果是否等于0
                 int b = p.hash & n;
                 if (b != runBit) {
                     runBit = b;
                     lastRun = p;
                 }
             }
             //等于0会走这边
             if (runBit == 0) {
                 ln = lastRun;
                 hn = null;
             }
             //不等于0会走这边
             else {
                 hn = lastRun;
                 ln = null;
             }
             for (Node<K,V> p = f; p != lastRun; p = p.next) {
                 int ph = p.hash; K pk = p.key; V pv = p.val;
                 if ((ph & n) == 0)
                     ln = new Node<K,V>(ph, pk, pv, ln);
                 else
                     hn = new Node<K,V>(ph, pk, pv, hn);
             }
             //将链表整体迁移到nextTable中
             setTabAt(nextTab, i, ln);
             setTabAt(nextTab, i + n, hn);
             //标识原桶标识位已经处理,头节点标记为fw,hash值为-1
             setTabAt(tab, i, fwd);
             advance = true;
         }
         //这里是红黑树迁移的情况
         else if (f instanceof TreeBin) {
             TreeBin<K,V> t = (TreeBin<K,V>)f;
             TreeNode<K,V> lo = null, loTail = null;
             TreeNode<K,V> hi = null, hiTail = null;
             int lc = 0, hc = 0;
             for (Node<K,V> e = t.first; e != null; e = e.next) {
                 int h = e.hash;
                 TreeNode<K,V> p = new TreeNode<K,V>
                     (h, e.key, e.val, null, null);
                 if ((h & n) == 0) {
                     if ((p.prev = loTail) == null)
                         lo = p;
                     else
                         loTail.next = p;
                     loTail = p;
                     ++lc;
                 }
                 else {
                     if ((p.prev = hiTail) == null)
                         hi = p;
                     else
                         hiTail.next = p;
                     hiTail = p;
                     ++hc;
                 }
             }
             ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
             (hc != 0) ? new TreeBin<K,V>(lo) : t;
             hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
             (lc != 0) ? new TreeBin<K,V>(hi) : t;
             setTabAt(nextTab, i, ln);
             setTabAt(nextTab, i + n, hn);
             setTabAt(tab, i, fwd);
             advance = true;
         }
     }
 }

其他方式引起的扩容

链表转红黑树

前面说到,当链表长度超过8会转成红黑树,但是节点总数如果小于64,会用扩容的方式代替转红黑树,代码如下

private final void treeifyBin(Node<K,V>[] tab, int index) {
    Node<K,V> b; int n, sc;
    if (tab != null) {
        if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
            //tryPresize进行扩容
            tryPresize(n << 1);
        else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
            synchronized (b) {
                if (tabAt(tab, index) == b) {
                    TreeNode<K,V> hd = null, tl = null;
                    for (Node<K,V> e = b; e != null; e = e.next) {
                        TreeNode<K,V> p =
                            new TreeNode<K,V>(e.hash, e.key, e.val,
                                              null, null);
                        if ((p.prev = tl) == null)
                            hd = p;
                        else
                            tl.next = p;
                        tl = p;
                    }
                    setTabAt(tab, index, new TreeBin<K,V>(hd));
                }
            }
        }
    }
}

点击tryPresize方法,最终也会来到下面这段代码,和前面addCount中的一样

else if (U.compareAndSwapInt(this, SIZECTL, sc,
                             (rs << RESIZE_STAMP_SHIFT) + 2))
    //注意这里的第二个参数为null,表示新的数组还没有创建,之前也是null
    transfer(tab, null);

当前线程协助其他线程

在之前put的时候,中间跳过了这段话,这段话是当前线程发现有其他线程正在进行扩容操作,协助其他线程扩容完成之后再继续put元素。

else if ((fh = f.hash) == MOVED)
              tab = helpTransfer(tab, f);
/**
  * Helps transfer if a resize is in progress.
  */
final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
    Node<K,V>[] nextTab; int sc;
    if (tab != null && (f instanceof ForwardingNode) &&
        (nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
        int rs = resizeStamp(tab.length);
        while (nextTab == nextTable && table == tab &&
               (sc = sizeCtl) < 0) {
            if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                sc == rs + MAX_RESIZERS || transferIndex <= 0)
                break;
            //每当来一个线程帮助扩容,此时就会sc+1,表示多了一个线程
            //其实这块也能和transfer方法中的sc-1对应上,一个线程完成之后就数量-1
            if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
                //扩容的方法,注意第二个参数有传入nextTab,原因是当前线程只是协助其他线程扩容
                //既然其他线程正在扩容,说明这个新数组已经创建好了
                transfer(tab, nextTab);
                break;
            }
        }
        return nextTab;
    }
    return table;
}

总结

到目前为止,我们分析了put过程中会遇到线程安全的点,比如数组初始化,数组头元素添加,put完成过程等。同时还分析了transfer扩容每个线程领取的任务,搬运结果的方式,协助扩容等方面的内容。如果对大家有帮助,请帮忙转发。

本文分享自微信公众号 - JAVA烂猪皮(gp1106701116),作者:烂猪皮

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2019-12-09

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 腾讯、阿里、滴滴后台面试题汇总总结 — (含答案)

    年底了,近期还是收到很多小伙伴发来的面试题,因为有很多大小厂的面试题,所以我这也大概整理总结了一下,把那些比较典型有特色且面试内容比较广泛对大家都有用处的面试题...

    烂猪皮
  • Java线程池使用与原理

    我们可以利用java很容易创建一个新线程,同时操作系统创建一个线程也是一笔不小的开销。所以基于线程的复用,就提出了线程池的概念,我们使用线程池创建出若干个线程,...

    烂猪皮
  • JAVA多线程与并发学习总结

    使用高速缓存来作为内存与处理器之间的缓冲,将运算需要用到的数据复制到缓存中,让计算能快速进行;当运算结束后再从缓存同步回内存之中,这样处理器就无需等待缓慢的内存...

    烂猪皮
  • 【原创】Java并发编程系列27 | ConcurrentHashMap(下)

    上一篇详细分析了HashMap源码,介绍了HashMap的数据结构以及并发编程中HashMap的问题,这篇就来看下ConcurrentHashMap。因为Con...

    java进阶架构师
  • 为并发而生的 ConcurrentHashMap(Java 8)

    HashMap 是我们日常最常见的一种容器,它以键值对的形式完成对数据的存储,但众所周知,它在高并发的情境下是不安全的。尤其是在 jdk 1.8 之前,reha...

    Single
  • ConcurrentHashMap 源码分析

    ConcurrentHashMap 源码分析 1. 在阅读源码时做了大量的注释,并且做了一些测试分析源码内的执行流程,由于博客篇幅有限,并且代码阅读起来没有 ...

    lwen
  • 【死磕Java并发】-----J.U.C之Java并发容器:ConcurrentHashMap

    此篇博客所有源码均来自JDK 1.8 HashMap是我们用得非常频繁的一个集合,但是由于它是非线程安全的,在多线程环境下,put操作是有可能产生死循环的,导致...

    用户1655470
  • JUC学习笔记(二)—ConcurentHashMap

    Unsafe:是CAS的核心类,由于Java方法无法直接访问底层系统,需要通过本地(native)方法来访问,Unsafe相当于一个后门,基于该类可以直接操作特...

    Monica2333
  • 【死磕Java并发】-----J.U.C之Java并发容器:ConcurrentSkipListMap

    到目前为止,我们在Java世界里看到了两种实现key-value的数据结构:Hash、TreeMap,这两种数据结构各自都有着优缺点。 Hash表:插入、查找最...

    用户1655470
  • 【死磕 Java 并发】—– J.U.C 之 Java 并发容器:ConcurrentLinkedQueue

    SkipListSkipList的特性SkipList的查找SkipList的插入SkipList的删除ConcurrentSkipListMapput操作ge...

    芋道源码

扫码关注云+社区

领取腾讯云代金券