前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Java 集合源码解析 - ConcurrentHashMap(JDK7)

Java 集合源码解析 - ConcurrentHashMap(JDK7)

作者头像
JavaEdge
发布2022-11-30 14:47:39
7430
发布2022-11-30 14:47:39
举报
文章被收录于专栏:JavaEdgeJavaEdge

ConcurrentHashMap是线程安全且高效的HashMap

1 为什么要使用ConcurrentHashMap

  • 线程不安全的HashMap HashMap是Java中最常用的一个Map类,性能好、速度快,但不能保证线程安全,它可用null作为key/value HashMap的线程不安全主要体现在resize时的死循环及使用迭代器时的fast-fail 在多线程环境下,使用HashMap进行put会引起死循环,所以在并发情况下不能使用HashMap.例如,执行以下代码会引起死循环.

HashMap在并发执行put会引起死循环,是因为多线程会导致HashMap的Entry链表成环,一旦成环,Entry的next节点永远不为空,产生死循环

  • 效率低下的HashTable 线程安全的Map类,其public方法均用synchronize修饰 这表示在多线程操作时,每个线程在操作之前都会锁住整个map,待操作完成后才释放.如线程1使用put进行元素添加,线程2不但不能使用put方法进行添加元素,也不能使用get方法来获取元素,所以竞争越激烈效率越低,这必然导致多线程时性能不佳。

Hashtable也是线程安全的,所以也是key和value也是不可以null。

  • 锁分段技术可有效提升并发访问率 我们可以回想一下,Hashtable(或者替代方案 Collections.synchronizedMap)的可伸缩性的主要障碍是它使用了一个 map 范围的锁,为了保证插入、删除或者检索操作的完整性必须保持这样一个锁,而且有时候甚至还要为了保证迭代遍历操作的完整性保持这样一个锁。这样一来,只要锁被保持,就从根本上阻止了其他线程访问 Map,即使处理器有空闲也不能访问,这样大大地限制了并发性。 ConcurrentHashMap 摒弃了单一的 map 范围的锁,取而代之的是由 16 个锁组成的集合,其中每个锁负责保护 hash bucket 的一个子集。锁主要由变化性操作(put() 和 remove())使用。具有 16个独立的锁意味着最多可以有 16 个线程可以同时修改 map。这并不一定是说在并发地对 map 进行写操作的线程数少于 16 时,另外的写操作不会被阻塞――16 对于写线程来说是理论上的并发限制数目,但是实际上可能达不到这个值。但是,16 依然比 1 要好得多,而且对于运行于目前这一代的计算机系统上的大多数应用程序来说已经足够了
    • 首先将数据分成一段一段地存储
    • 然后给每一段数据配一把锁
    • 当一个线程占用锁访问其中一个段数据的时候,其他段的数据也能被其他线程访问

2 ConcurrentHashMap的结构

ConcurrentHashMap类图
ConcurrentHashMap类图

通过ConcurrentHashMap的类图来分析ConcurrentHashMap的结构

ConcurrentHashMap是由Segment数组和HashEntry数组组成

2.1 可重入锁 : Segment

static final class Segment<K,V> extends ReentrantLock implements Serializable { 
       /** 
        * 在本 segment 范围内,包含的 HashEntry 元素的个数
        * 该变量被声明为 volatile 型
        */ 
       transient volatile int count; 
       /** 
        * table 被更新的次数
        */ 
       transient int modCount; 
       /** 
        * 当 table 中包含的 HashEntry 元素的个数超过本变量值时,触发 table 的再散列
        */ 
       transient int threshold; 
       /** 
        * table 是由 HashEntry 对象组成的数组
        * 如果散列时发生碰撞,碰撞的 HashEntry 对象就以链表的形式链接成一个链表
        * table 数组的数组成员代表散列映射表的一个桶
        * 每个 table 守护整个 ConcurrentHashMap 包含桶总数的一部分
        * 如果并发级别为 16,table 则守护 ConcurrentHashMap 包含的桶总数的 1/16 
        */ 
       transient volatile HashEntry<K,V>[] table; 
       /** 
        * 装载因子
        */ 
       final float loadFactor; 
       Segment(int initialCapacity, float lf) { 
           loadFactor = lf; 
           setTable(HashEntry.<K,V>newArray(initialCapacity)); 
       } 
       /** 
        * 设置 table 引用到这个新生成的 HashEntry 数组
        * 只能在持有锁或构造函数中调用本方法
        */ 
       void setTable(HashEntry<K,V>[] newTable) { 
           // 计算临界阀值为新数组的长度与装载因子的乘积
           threshold = (int)(newTable.length * loadFactor); 
           table = newTable; 
       } 
       /** 
        * 根据 key 的散列值,找到 table 中对应的那个桶(table 数组的某个数组成员)
        */ 
       HashEntry<K,V> getFirst(int hash) { 
           HashEntry<K,V>[] tab = table; 
           // 把散列值与 table 数组长度减 1 的值相“与”,
// 得到散列值对应的 table 数组的下标
           // 然后返回 table 数组中此下标对应的 HashEntry 元素
           return tab[hash & (tab.length - 1)]; 
       } 
}

Segment 类继承于 ReentrantLock ,从而使得 Segment 对象能充当锁的角色;

Java8的Segment
Java8的Segment

Segment 对象用来守护其(成员对象 table 中)包含的若干个桶; table 是一个由 HashEntry 对象组成的数组; table 数组的每一个数组成员就是散列映射表的一个桶.

count 变量是一个计数器,它表示每个 Segment 对象管理的 table 数组(若干个 HashEntry 组成的链表)包含的 HashEntry 对象的个数; 每一个 Segment 对象都有一个 count 对象来表示本 Segment 中包含的 HashEntry 对象的总数; 之所以在每个 Segment 对象中包含一个计数器,而不是在 ConcurrentHashMap 中使用全局的计数器,是为了避免出现“热点域”而影响 ConcurrentHashMap 的并发性

依次插入 ABC 三个 HashEntry 节点后,Segment 的结构示意图

插入三个节点后 Segment 的结构示意图:
插入三个节点后 Segment 的结构示意图:

2.2 HashEntry : 存储键值对

static final class HashEntry<K,V> { 
       final K key;                         // 声明 key 为 final 型
       final int hash;                      // 声明 hash 值为 final 型 
       volatile V value;                    // 声明 value 为 volatile 型
       final HashEntry<K,V> next;           // 声明 next 为 final 型 
       HashEntry(K key, int hash, HashEntry<K,V> next, V value) { 
           this.key = key; 
           this.hash = hash; 
           this.next = next; 
           this.value = value; 
       } 
}

一个ConcurrentHashMap里包含一个Segment数组; Segment的结构和HashMap类似,是一种数组和链表结构; 一个Segment里包含一个HashEntry数组,每个HashEntry是一个链表结构的元素,每个Segment守护着一个HashEntry数组里的元素; 当对HashEntry数组的数据进行修改时,必须首先获得与它对应的Segment锁.

在 ConcurrentHashMap 中,在散列时如果产生“碰撞”,将采用“分离链接法”来处理“碰撞”:把“碰撞”的 HashEntry 对象链接成一个链表.

由于 HashEntry 的 next 域为 final 型,所以新节点只能在链表的表头处插入

  • 下图是在一个空桶中依次插入 A,B,C 三个 HashEntry 对象后的结构图
插入三个节点后桶的结构示意图
插入三个节点后桶的结构示意图

注意:由于只能在表头插入,所以链表中节点的顺序和插入的顺序相反。

3 ConcurrentHashMap的初始化

ConcurrentHashMap 的结构示意图
ConcurrentHashMap 的结构示意图

3.1 Segment详解

3.1.1 Segment的索引与读取

ConcurrentHashMap类中包含三个与Segment相关的成员变量:

/**
 * Mask value for indexing into segments. The upper bits of a
 * key's hash code are used to choose the segment.
 */ final int segmentMask;

/**
 * Shift value for indexing within segments.
 */ final int segmentShift;

/**
 * The segments, each of which is a specialized hash table.
 */ final Segment<K,V>[] segments;

其中segments是Segment的原生数组,此数组的长度可以在ConcurrentHashMap的构造函数中使用并发度参数指定,其默认值为16

  • segmentShift是用来计算segments数组索引的位移量
  • segmentMask则是用来计算索引的掩码值

例如并发度为16时(即segments数组长度为16)

  • segmentShift为32-4=28(因为2的4次幂为16)
  • segmentMask则为1111(二进制) 索引的计算式如下:
int j = (hash >>> segmentShift) & segmentMask;

3.1.2 寻址方式

在读写某个Key时,先取该Key的哈希值; 并将哈希值的高N位对Segment个数取模从而得到该Key应该属于哪个Segment,接着如同操作HashMap一样操作这个Segment; 为了保证不同的值均匀分布到不同的Segment,需要通过如下方法计算哈希值.

private int hash(Object k) {
  int h = hashSeed;
  if ((0 != h) && (k instanceof String)) {
    return sun.misc.Hashing.stringHash32((String) k);
  }
  h ^= k.hashCode();
  h += (h <<  15) ^ 0xffffcd7d;
  h ^= (h >>> 10);
  h += (h <<   3);
  h ^= (h >>>  6);
  h += (h <<   2) + (h << 14);
  return h ^ (h >>> 16);
}

同样为了提高取模运算效率,通过如下计算

  • ssize即为大于concurrencyLevel的最小的2的N次方
  • segmentMask为2^N-1

对于某一个Key的哈希值,只需要向右移segmentShift位以取高sshift位,再与segmentMask取与操作即可得到它在Segment数组上的索引

int sshift = 0;
int ssize = 1;
while (ssize < concurrencyLevel) {
  ++sshift;
  ssize <<= 1;
}
this.segmentShift = 32 - sshift;
this.segmentMask = ssize - 1;
Segment<K,V>[] ss = (Segment<K,V>[])new Segment[ssize];

3.1.3 多线程并发访问一个共享变量

为了保证逻辑的正确,可以采用以下方法:

  1. 加锁,性能最低,能保证原子性、可见性,防止指令重排
  2. volatile修饰,性能中等,能保证可见性,防止指令重排
  3. 使用getObjectVolatile,性能最好,可防止指令重排

因此ConcurrentHashMap选择了使用Unsafe的getObjectVolatile来读取segments中的元素

JDK8
JDK8
// Unsafe mechanics private static final sun.misc.Unsafe UNSAFE;
private static final long SBASE;
private static final int SSHIFT;
private static final long TBASE;
private static final int TSHIFT;
private static final long HASHSEED_OFFSET;
private static final long SEGSHIFT_OFFSET;
private static final long SEGMASK_OFFSET;
private static final long SEGMENTS_OFFSET;

static {
    int ss, ts;
    try {
        UNSAFE = sun.misc.Unsafe.getUnsafe();
        Class tc = HashEntry[].class;
        Class sc = Segment[].class;
        TBASE = UNSAFE.arrayBaseOffset(tc);
        SBASE = UNSAFE.arrayBaseOffset(sc);
        ts = UNSAFE.arrayIndexScale(tc);
        ss = UNSAFE.arrayIndexScale(sc);
        HASHSEED_OFFSET = UNSAFE.objectFieldOffset(
            ConcurrentHashMap.class.getDeclaredField("hashSeed"));
        SEGSHIFT_OFFSET = UNSAFE.objectFieldOffset(
            ConcurrentHashMap.class.getDeclaredField("segmentShift"));
        SEGMASK_OFFSET = UNSAFE.objectFieldOffset(
            ConcurrentHashMap.class.getDeclaredField("segmentMask"));
        SEGMENTS_OFFSET = UNSAFE.objectFieldOffset(
            ConcurrentHashMap.class.getDeclaredField("segments"));
    } catch (Exception e) {
        throw new Error(e);
    }
    if ((ss & (ss-1)) != 0 || (ts & (ts-1)) != 0)
        throw new Error("data type scale not a power of two");
    SSHIFT = 31 - Integer.numberOfLeadingZeros(ss);
    TSHIFT = 31 - Integer.numberOfLeadingZeros(ts);
}


private Segment<K,V> segmentForHash(int h) {
    long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;
    return (Segment<K,V>) UNSAFE.getObjectVolatile(segments, u);
}

观察segmentForHash(int h)方法可知

  • 首先使用(h >>> segmentShift) & segmentMask 计算出该h对应的segments索引值(假设为x)
  • 然后使用索引值(x<<SSHIFT) + SBASE计算出segments中相应Segment的地址
  • 最后使用UNSAFE.getObjectVolatile(segments,u)取出相应的Segment,并保持volatile读的效果

3.1.4 Segment的锁

Segment继承了ReentrantLock,因此它实际上是一把锁.

在进行put、remove、replace、clear等需要改动内部内容的操作时,都要进行加锁操作,其代码一般是这样的:

final V put(K key, int hash, V value, boolean onlyIfAbsent) {
    HashEntry<K,V> node = tryLock() ? null :
        scanAndLockForPut(key, hash, value);
    V oldValue;
    try {
	//实际代码……
        }
    } finally {
        unlock();
    }
    return oldValue;
}
  • 首先调用tryLock,如果加锁失败,则进入scanAndLockForPut(key, hash, value) 该方法实际上是先自旋等待其他线程解锁,直至指定的次数MAX_SCAN_RETRIES; 若自旋过程中,其他线程释放了锁,导致本线程直接获得了锁,就避免了本线程进入等待锁的场景,提高了效率; 若自旋一定次数后,仍未获取锁,则调用lock方法进入等待锁的场景.

采用这种自旋锁和独占锁结合的方法,在很多场景下能够提高Segment并发操作数据的效率.

初始化方法是通过initialCapacityloadFactorconcurrencyLevel等几个 参数来初始化segment数组、段偏移量segmentShift、段掩码segmentMask和每个segment里的HashEntry数组来实现的.

  • 初始化segments数组
	   if (concurrencyLevel > MAX_SEGMENTS)
	        concurrencyLevel = MAX_SEGMENTS;
	        int sshift = 0;
	        int ssize = 1;
	        while (ssize < concurrencyLevel) {
	            ++sshift;
	            ssize <<= 1;
	   }
       segmentShift = 32 - sshift;
       segmentMask = ssize - 1;
       this.segments = Segment.newArray(ssize);

segments数组的长度ssize是通过concurrencyLevel计算得出的 为了能通过按位与的散列算法来定位segments数组的索引,必须保证segments数组的长度是2的N次方,所以必须计算出一个大于或等于concurrencyLevel的最小的2的N次方值来作为segments数组的长度

concurrencyLevel的最大值是65535,这意味着segments数组的长度最大为65536,对应的二进制是16位

  • 初始化segmentShift和segmentMask 这两个全局变量需要在定位segment时的散列算法里使用 sshift等于ssize从1向左移位的次数,默认concurrencyLevel等于16,1需要向左移位移动4次,所以sshift为4.
    • segmentShift用于定位参与散列运算的位数,segmentShift等于32减sshift,所以等于28,这里之所以用32是因为ConcurrentHashMap里的hash()方法输出的最大数是32位,后面的测试中我们可以看到这点
    • segmentMask是散列运算的掩码,等于ssize减1,即15,掩码的二进制各个位的值都是1.因为ssize的最大长度是65536,所以segmentShift最大值是16,segmentMask最大值是65535,对应的二进制是16位,每个位都是1
  • 初始化每个segment 输入参数initialCapacity是ConcurrentHashMap的初始化容量,loadfactor是每个segment的负载因子,在构造方法里需要通过这两个参数来初始化数组中的每个segment.
if (initialCapacity > MAXIMUM_CAPACITY)
     initialCapacity = MAXIMUM_CAPACITY;
 int c = initialCapacity / ssize;
 if (c * ssize < initialCapacity)
     ++c;
 int cap = 1;
 while (cap < c)
     cap <<= 1;
 for (int i = 0; i < this.segments.length; ++i)
     this.segments[i] = new Segment<K, V>(cap, loadFactor);

cap就是segment里HashEntry数组的长度,它等于。若c大于1,就会取≥c的2的N次方值。所以cap就是2的N(N≥0)次方。

segment的容量

threshold=(int)cap*loadFactor

默认initialCapacity等于16,loadfactor等于0.75,通过运算cap等于1,threshold等于零。

  • 定位Segment ConcurrentHashMap使用分段锁Segment来保护不同段的数据,在插入和获取元素时,先通过散列算法定位到Segment
private static int hash(int h) {
     h += (h << 15) ^ 0xffffcd7d;
     h ^= (h >>> 10);
     h += (h << 3);
     h ^= (h >>> 6);
     h += (h << 2) + (h << 14);
     return h ^ (h >>> 16);
 }

进行再散列,是为了减少散列冲突,使元素能够均匀地分布在不同的Segment上,从而提高容器的存取效率。 假如散列的质量差到极点,那么所有的元素都在一个Segment中,不仅存取元素缓慢,分段锁也会失去意义。

ConcurrentHashMap通过以下散列算法定位segment

final Segment<K,V> segmentFor(int hash) {
      return segments[(hash >>> segmentShift) & segmentMask];
}

默认情况下segmentShift为28,segmentMask为15,再散列后的数最大是32位二进制数据,向右无符号移动28位,即让高4位参与到散列运算中,(hash>>>segmentShift)&segmentMask的运算结果分别是4、15、7和8,可以看到散列值没有发生冲突.

3.1.5 HashEntry

如果说ConcurrentHashMap中的segments数组是第一层hash表,则每个Segment中的HashEntry数组(transient volatile HashEntry<K,V>[] table)是第二层hash表; 每个HashEntry有一个next属性,因此它们能够组成一个单向链表.

static final class HashEntry<K,V> {
    final int hash;
    final K key;
    volatile V value;
    volatile HashEntry<K,V> next;

    HashEntry(int hash, K key, V value, HashEntry<K,V> next) {
        this.hash = hash;
        this.key = key;
        this.value = value;
        this.next = next;
    }

    /**
     * Sets next field with volatile write semantics.  (See above
     * about use of putOrderedObject.)
     */ final void setNext(HashEntry<K,V> n) {
        UNSAFE.putOrderedObject(this, nextOffset, n);
    }

    // Unsafe mechanics static final sun.misc.Unsafe UNSAFE;
    static final long nextOffset;
    static {
        try {
            UNSAFE = sun.misc.Unsafe.getUnsafe();
            Class k = HashEntry.class;
            nextOffset = UNSAFE.objectFieldOffset
                (k.getDeclaredField("next"));
        } catch (Exception e) {
            throw new Error(e);
        }
    }
}

/**
 * Gets the ith element of given table (if nonnull) with volatile
 * read semantics. Note: This is manually integrated into a few
 * performance-sensitive methods to reduce call overhead.
 */ @SuppressWarnings("unchecked")
static final <K,V> HashEntry<K,V> entryAt(HashEntry<K,V>[] tab, int i) {
    return (tab == null) ? null :
        (HashEntry<K,V>) UNSAFE.getObjectVolatile
        (tab, ((long)i << TSHIFT) + TBASE);
}

/**
 * Sets the ith element of given table, with volatile write
 * semantics. (See above about use of putOrderedObject.)
 */ static final <K,V> void setEntryAt(HashEntry<K,V>[] tab, int i,
                                   HashEntry<K,V> e) {
    UNSAFE.putOrderedObject(tab, ((long)i << TSHIFT) + TBASE, e);
}

与Segment类似,HashEntry使用UNSAFE.putOrderedObject来设置它的next成员变量,这样既可以提高性能,又能保持并发可见性; 同时,entryAt方法和setEntryAt方法也使用了UNSAFE.getObjectVolatile和UNSAFE.putOrderedObject来读取和写入指定索引的HashEntry.

总之,Segment数组和HashEntry数组的读取写入一般都是使用UNSAFE.

3.2 用 HashEntery 对象的不变性来降低读操作对加锁的需求

在HashEntry 类的定义中我们可以看到,HashEntry 中的 key,hash,next 都声明为final型; 这意味着,不能把节点添加到链接的中间和尾部,也不能在链接的中间和尾部删除节点; 这个特性可以保证:在访问某个节点时,这个节点之后的链接不会被改变; 可以大大降低处理链表时的复杂性

同时,HashEntry 类的 value 域被声明为 Volatile ; JMM可以保证:某个写线程对 value 域的写入马上可以被后续的某个读线程“看”到.

在 ConcurrentHashMap 中,不允许用 null 作为键/值 ConcurrentMaps(ConcurrentHashMaps,ConcurrentSkipListMaps)不允许使用null的主要原因是,无法容纳在非并行映射中几乎无法容忍的歧义。最主要的是,如果map.get(key)return null,则无法检测到该键是否显式映射到null该键。在非并行映射中,可以通过进行检查 map.contains(key),但在并行映射中,两次调用之间的映射可能已更改。

当读线程读到某个 HashEntry 的 value 域的值为 null 时,便知道产生了冲突——发生了重排序现象,需要加锁后重新读入这个 value 值

这些特性互相配合,使得读线程即使在不加锁状态下,也能正确访问 ConcurrentHashMap

下面我们分别来分析线程写入的两种情形:对散列表做非结构性修改的操作和对散列表做结构性修改的操作。

3.2.1 非结构性修改操作

只是更改某个 HashEntry 的 value 域值; 由于对 Volatile 变量的写操作将与随后对这个变量的读操作进行同步; 当一个写线程修改了某个 HashEntry 的 value 域后,另一个读线程读这个值域,JMM能够保证读线程读取的一定是更新后的值. 所以,写线程对链表的非结构性修改能够被后续不加锁的读线程“看到”

3.2.3 结构性修改

实质上是对某个桶指向的链表做结构性修改; 如果能够确保:在读线程遍历一个链表期间,写线程对这个链表所做的结构性修改不影响读线程继续正常遍历这个链表; 那么读 / 写线程之间就可以安全并发访问这个 ConcurrentHashMap

结构性修改操作包括 put,remove,clear 下面我们分别分析这三个操作

  • clear 操作只是把 ConcurrentHashMap 中所有的桶“置空”; 每个桶之前引用的链表依然存在,只是桶不再引用到这些链表(所有链表的结构并没有被修改); 正在遍历某个链表的读线程依然可以正常执行对该链表的遍历.
  • 从下面的代码put 操作中,我们可以看出:put 操作如果需要插入一个新节点到链表中时 , 会在链表头部插入这个新节点; 此时,链表中的原有节点的连接并没有被修改; 也就是说:插入新键 / 值对到链表中的操作不会影响读线程正常遍历这个链表.
remove
V remove(Object key, int hash, Object value) { 
           lock();         // 加锁
           try{ 
               int c = count - 1; 
               HashEntry<K,V>[] tab = table; 
               // 根据散列码找到 table 的下标值
               int index = hash & (tab.length - 1); 
               // 找到散列码对应的那个桶
               HashEntry<K,V> first = tab[index]; 
               HashEntry<K,V> e = first; 
               while(e != null&& (e.hash != hash || !key.equals(e.key))) 
                   e = e.next; 
               V oldValue = null; 
               if(e != null) { 
                   V v = e.value; 
                   if(value == null|| value.equals(v)) { // 找到要删除的节点
                       oldValue = v; 
                       ++modCount; 
                       // 所有处于待删除节点之后的节点原样保留在链表中
                       // 所有处于待删除节点之前的节点被克隆到新链表中
                       HashEntry<K,V> newFirst = e.next;// 待删节点的后继结点
                       for(HashEntry<K,V> p = first; p != e; p = p.next) 
                           newFirst = new HashEntry<K,V>(p.key, p.hash, 
                                                         newFirst, p.value); 
                       // 把桶链接到新的头结点
                       // 新的头结点是原链表中,删除节点之前的那个节点
                       tab[index] = newFirst; 
                       count = c;      // 写 count 变量
                   } 
               } 
               return oldValue; 
           } finally{ 
               unlock();               // 解锁
           } 
       }

get一样,先根据散列码找到具体的链表; 然后遍历这个链表找到要删除的节点; 最后把待删除节点之后的所有节点原样保留在新链表中,把待删除节点之前的每个节点克隆到新链表中.

假设写线程执行 remove 操作,要删除链表的 C 节点,另一个读线程同时正在遍历这个链表

执行删除之前的原链表
执行删除之前的原链表
执行删除之后的新链表
执行删除之后的新链表

所待删除节点 C 后的所有节点原样保留到新链表中; 所待删除节点 C 前的每个节点被克隆到新链表中 注意:它们在新链表中的链接顺序被反转了

在执行 remove 操作时,原始链表并没有被修改,也就是说:读线程不会受同时执行 remove 操作的并发写线程的干扰

综合上面的分析我们可以看出,写线程对某个链表的结构性修改不会影响其他的并发读线程对这个链表的遍历访问

5 ConcurrentHashMap的操作

主要研究ConcurrentHashMap的3种操作——get操作、put操作和size操作.

5.1 get操作

Segment的get操作实现非常简单和高效.

  • 先经过一次再散列
  • 然后使用该散列值通过散列运算定位到Segment
  • 最后通过散列算法定位到该元素.
public V get(Object key) {
    Segment<K,V> s; 
    HashEntry<K,V>[] tab;
    int h = hash(key); 
	//找到segment的地址 
	long u = (((h >>> segmentShift) & segmentMask) << SSHIFT) + SBASE;
	//取出segment,并找到其hashtable 
	if ((s = (Segment<K,V>)UNSAFE.getObjectVolatile(segments, u)) != null && (tab = s.table) != null) {
	//遍历此链表,直到找到对应的值 
		for (HashEntry<K,V> e = (HashEntry<K,V>) UNSAFE.getObjectVolatile (tab, ((long)(((tab.length - 1) & h)) << TSHIFT) + TBASE);e != null; e = e.next) {
            K k;
            if ((k = e.key) == key || (e.hash == h && key.equals(k)))
                return e.value;
        }
    }
    return null;
}

整个get方法不需要加锁,只需要计算两次hash值,然后遍历一个单向链表(此链表长度平均小于2),因此get性能很高; 高效之处在于整个过程不需要加锁,除非读到的值是空才会加锁重读.

HashTable容器的get方法是需要加锁的,那ConcurrentHashMap的get操作是如何做到不加锁的呢? 原因是它的get方法将要使用的共享变量都定义成了volatile型; 如用于统计当前Segement大小的count字段和用于存储值的HashEntry的value. 定义成volatile的变量,能够在线程之间保持可见性,能够被多线程同时读,并且保证不会读到过期的值,但是只能被单线程写(有一种情况可以被多线程写,就是写入的值不依赖于原值); 在get操作里只需要读不需要写共享变量count和value,所以可以不用加锁.

之所以不会读到过期的值,是因为根据Java内存模型的happen before原则,对volatile字段的写操作先于读操作; 即使两个线程同时修改和获取volatile变量,get操作也能拿到最新的值; 这是用volatile替换锁的经典应用场景.

transient volatile int count;
volatile V value;

在定位元素的代码里可以发现,定位HashEntry和定位Segment的散列算法虽然一样,都与数组的长度减去1再相“与”,但是相“与”的值不一样

  • 定位Segment使用的是元素的hashcode再散列后得到的值的高位
  • 定位HashEntry直接使用再散列后的值.

其目的是避免两次散列后的值一样,虽然元素在Segment里散列开了,但是却没有在HashEntry里散列开.

hash >>> segmentShift & segmentMask   // 定位Segment所使用的hash算法
int index = hash & (tab.length - 1);   // 定位HashEntry所使用的hash算法

5.2 put操作

由于需要对共享变量进行写操作,所以为了线程安全,在操作共享变量时必须加锁

首先定位到Segment,然后在Segment里进行插入操作。插入操作需经历两个步骤:

  • 判断是否需要对Segment里的HashEntry数组进行扩容
  • 定位添加元素的位置,然后将其放在HashEntry数组
  1. 是否需要扩容 在插入元素前会先判断Segment里的HashEntry数组是否超过容量(threshold),如果超过阈值,则对数组进行扩容. 值得一提的是,Segment的扩容判断比HashMap更恰当,因为HashMap是在插入元素后判断元素是否已经到达容量的,如果到达了就进行扩容,但是很有可能扩容之后没有新元素插入,这时HashMap就进行了一次无效的扩容.
  2. 如何扩容 在扩容的时候,首先会创建一个容量是原来两倍的数组,然后将原数组里的元素进行再散列后插入到新的数组。为了高效,ConcurrentHashMap不会对整个容器进行扩容,而只对某个segment扩容。

put方法的第一步,计算segment数组的索引,并找到该segment,然后调用该segment#put

public V put(K key, V value) { 
       if (value == null)
       	   // ConcurrentHashMap 不允许 null 作为映射值
           throw new NullPointerException(); 
       int hash = hash(key.hashCode());
       // 根据散列码找到对应的 Segment 
       return segmentFor(hash).put(key, hash, value, false); 
}

根据 hash 值找到对应的 Segment

final Segment<K,V> segmentFor(int hash) { 
	   // 将散列值右移 segmentShift 个位,并在高位填充 0 
	   // 然后把得到的值与 segmentMask 相“与”
	   // 从而得到 hash 值对应的 segments 数组的下标值
	   // 最后根据下标值返回散列码对应的 Segment 对象
       return segments[(hash >>> segmentShift) & segmentMask]; 
}

put方法第二步,在Segment的put方法中进行操作:

V put(K key, int hash, V value, boolean onlyIfAbsent) { 
           lock();  // 加锁,这里是锁定某个 Segment 对象而非整个 ConcurrentHashMap 
           try { 
               int c = count; 
               if (c++ > threshold)     // 如果超过再散列的阈值
                   rehash();              // 执行再散列,table 数组的长度将扩充一倍
               HashEntry<K,V>[] tab = table; 
               // 把散列码值与 table 数组的长度减 1 的值相“与”
               // 得到该散列码对应的 table 数组的下标值
               int index = hash & (tab.length - 1); 
               // 找到散列码对应的具体的那个桶
               HashEntry<K,V> first = tab[index]; 
               HashEntry<K,V> e = first; 
               while (e != null && (e.hash != hash || !key.equals(e.key))) 
                   e = e.next; 
               V oldValue; 
               if (e != null) {            // 如果键 / 值对以经存在
                   oldValue = e.value; 
                   if (!onlyIfAbsent) 
                       e.value = value;    // 设置 value 值
               } 
               else {                        // 键 / 值对不存在 
                   oldValue = null; 
                   ++modCount;         // 要添加新节点到链表中,所以 modCont 要加 1  
                   // 创建新节点,并添加到链表的头部 
                   tab[index] = new HashEntry<K,V>(key, hash, first, value); 
                   count = c;               // 写 count 变量
               } 
               return oldValue; 
           } finally { 
               unlock();                     // 解锁
           } 
       }

注意:这里的加锁操作是针对(键的 hash 值对应的)某个具体的 Segment,锁定的是该 Segment 而不是整个 ConcurrentHashMap; 因为插入键 / 值对操作只是在这个 Segment 包含的某个桶中完成,不需要锁定整个ConcurrentHashMap; 此时,其他写线程对另外 15 个Segment 的加锁并不会因为当前线程对这个 Segment 的加锁而阻塞; 同时,所有读线程几乎不会因本线程的加锁而阻塞(除非读线程刚好读到这个 Segment 中某个 HashEntry 的 value 域的值为 null,此时需要加锁后重新读取该值)

相比较于 HashTable 和由同步包装器包装的 HashMap每次只能有一个线程执行读或写操作; ConcurrentHashMap 在并发访问性能上有了质的提高; 在理想状态下,ConcurrentHashMap 可以支持 16 个线程执行并发写操作(如果并发级别设置为 16),及任意数量线程的读操作.

5.3 size操作

要统计整个ConcurrentHashMap里元素的数量,就必须统计所有Segment里元素的数量后计总; Segment里的全局变量count是一个volatile; 在并发场景下,是不是直接把所有Segment的count相加就可以得到整个ConcurrentHashMap大小了呢? 不是的

虽然相加时可以获取每个Segment的count的最新值,但是可能累加前使用的count发生了变化,那么统计结果就不准了; 所以,最安全的做法是在统计size的时候把所有Segment的put、remove和clean方法全部锁住,但是这种做法显然非常低效.

因为在累加count操作过程中,之前累加过的count发生变化的几率非常小 所以ConcurrentHashMap的做法是先尝试2次通过不锁Segment的方式来统计各个Segment大小; 如果统计的过程中,count发生了变化,则再采用加锁的方式来统计所有Segment的大小.

那么ConcurrentHashMap又是如何判断在统计的时候容器是否发生了变化呢? 使用modCount变量,在put、remove和clean方法里操作元素前都会将变量modCount进行加1; 那么在统计size前后比较modCount是否发生变化,从而得知容器的大小是否发生变化.

6 用 Volatile 变量协调读写线程间的内存可见性

由于内存可见性问题,未正确同步的情况下,写线程写入的值可能并不为后续的读线程可见

下面以写线程 M 和读线程 N 来说明 ConcurrentHashMap 如何协调读 / 写线程间的内存可见性问题

协调读 - 写线程间的内存可见性的示意图
协调读 - 写线程间的内存可见性的示意图

假设线程 M 在写入了 volatile 型变量 count 后,线程 N 读取了这个 volatile 型变量 count

根据 happens-before 关系法则中的程序次序法则

  • A appens-before 于 B
  • C happens-before D

根据Volatile 变量法则

  • B happens-before C

根据传递性,连接上面三个 happens-before 关系得到 A appens-before 于 B; B appens-before C;C happens-before D

也就是说:写线程 M 对链表做的结构性修改,在读线程 N 读取了同一个 volatile 变量后,对线程 N 也是可见的

虽然线程 N 是在未加锁的情况下访问链表; JMM可以保证:只要之前对链表做结构性修改操作的写线程 M 在退出写方法前写 volatile 型变量 count; 读线程 N 在读取这个 volatile 型变量 count 后,就一定能“看到”这些修改

ConcurrentHashMap 中,每个 Segment 都有一个变量 count; 它用来统计 Segment 中的 HashEntry 的个数; 这个变量被声明为 volatile.

transient volatile int count;

所有不加锁读方法,在进入读方法时,首先都会去读这个 count 变量 比如下面的 get 方法:

V get(Object key, int hash) { 
           if(count != 0) {       // 首先读 count 变量
               HashEntry<K,V> e = getFirst(hash); 
               while(e != null) { 
                   if(e.hash == hash && key.equals(e.key)) { 
                       V v = e.value; 
                       if(v != null)            
                           return v; 
                       // 如果读到 value 域为 null,说明发生了重排序,加锁后重新读取
                       return readValueUnderLock(e); 
                   } 
                   e = e.next; 
               } 
           } 
           return null; 
       }

在 ConcurrentHashMap 中,所有执行写操作的方法(put, remove, clear),在对链表做结构性修改之后,在退出写方法前都会去写这个 count 变量 所有未加锁的读操作(get, contains, containsKey)在读方法中,都会首先去读取这个 count 变量。

根据 Java 内存模型,对 同一个 volatile 变量的写 / 读操作可以确保:写线程写入的值,能够被之后未加锁的读线程“看到”。

这个特性和前面介绍的 HashEntry 对象的不变性相结合,使得在 ConcurrentHashMap 中,读线程在读取散列表时,基本不需要加锁就能成功获得需要的值。这两个特性相配合,不仅减少了请求同一个锁的频率(读操作一般不需要加锁就能够成功获得值),也减少了持有同一个锁的时间(只有读到 value 域的值为 null 时 , 读线程才需要加锁后重读)。

7 ConcurrentHashMap 实现高并发的总结

7.1 基于通常情形而优化

在实际的应用中,散列表一般的应用场景是:除了少数插入操作和删除操作外,绝大多数都是读操作,而且读操作在大多数时候都是成功的; 正是基于这个前提,ConcurrentHashMap 针对读操作做了大量的优化; 通过HashEntry 对象的不变性和用 volatile 型变量协调线程间的内存可见性; 使得大多数时候,读操作不需要加锁就可以正确获得值; 这个特性使得 ConcurrentHashMap 的并发性能在分离锁的基础上又有了近一步的提高.

7.2 总结

ConcurrentHashMap 是一个并发散列映射表的实现,它允许完全并发的读取,并且支持给定数量的并发更新; 相比于 HashTable 和用同步包装器包装的 HashMap(Collections.synchronizedMap(new HashMap())),ConcurrentHashMap 拥有更高的并发性;

在 HashTable 和由同步包装器包装的 HashMap 中,使用一个全局的锁来同步不同线程间的并发访问; 同一时间点,只能有一个线程持有锁,也就是说在同一时间点,只能有一个线程能访问容器; 这虽然保证多线程间的安全并发访问,但同时也导致对容器的访问变成串行化的了。

在使用锁来协调多线程间并发访问的模式下,减小对锁的竞争可以有效提高并发性; 有两种方式可以减小对锁的竞争:

  • 减小请求同一个锁的频率
  • 减少持有锁的时间

ConcurrentHashMap 的高并发性主要来自于三个方面:

  • 1.用分离锁实现多个线程间的更深层次的共享访问,减小了请求同一个锁的频率
  • 2.用 HashEntery 对象的不变性来降低执行读操作的线程在遍历链表期间对加锁的需求
  • 3.通过对同一个 Volatile 变量的写 / 读访问,协调不同线程间读 / 写操作的内存可见性

由于散列映射表在实际应用中大多数操作都是成功的读操作,所以 2 和 3 既可以减少请求同一个锁的频率,也可以有效减少持有锁的时间

通过减小请求同一个锁的频率和尽量减少持有锁的时间 ,使得 ConcurrentHashMap 的并发性相对于 HashTable 和用同步包装器包装的 HashMap有了质的提高。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019-01-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 为什么要使用ConcurrentHashMap
  • 2 ConcurrentHashMap的结构
    • 2.1 可重入锁 : Segment
      • 2.2 HashEntry : 存储键值对
      • 3 ConcurrentHashMap的初始化
        • 3.1 Segment详解
          • 3.1.1 Segment的索引与读取
          • 3.1.2 寻址方式
          • 3.1.3 多线程并发访问一个共享变量
          • 3.1.4 Segment的锁
          • 3.1.5 HashEntry
        • 3.2 用 HashEntery 对象的不变性来降低读操作对加锁的需求
          • 3.2.1 非结构性修改操作
          • 3.2.3 结构性修改
      • 5 ConcurrentHashMap的操作
        • 5.1 get操作
          • 5.2 put操作
            • 5.3 size操作
            • 6 用 Volatile 变量协调读写线程间的内存可见性
            • 7 ConcurrentHashMap 实现高并发的总结
              • 7.1 基于通常情形而优化
                • 7.2 总结
                相关产品与服务
                容器服务
                腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
                领券
                问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档