首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >HashMap底层实现原理解析-JDK8

HashMap底层实现原理解析-JDK8

原创
作者头像
Alec
修改2020-06-09 14:52:28
4560
修改2020-06-09 14:52:28
举报
文章被收录于专栏:Java开发小站Java开发小站

HashMap在平时的工作中是使用最频繁的一种数据存储结构,例如在工作中我们可以用HashMap做本地缓存,存放临时对象等等场景中,而且HashMap也是平时面试当中被经常问到的知识点。因此对HashMap的知识点掌握还是比较重要的。

HashMap在JDK8 中做了一下优化,和JDK7不一样的地方主要包含以下几个地方:

  1. 数据结构不同: 在JDK7 中数据存储结构由 数组 + 链表 形式组成。其每一个数组元素是一个Entry类型的节点。通过对目标元素KEY取hash计算得到该元素在数组的下表,然后将元素放入数组对应下标处,当发生Hash碰撞(通过hash计算得到数组下标处已有元素,则通过单向链表的形式将该Entry通过链表的新式接入),其数据结构如下图所示:
hashmap7.png
hashmap7.png

在JDK8中数据存储结构在 数组 + 链表的基础上,引入了红黑树 数据结构来减小链表长度。

在链表长度等于7的时候,当位桶数组长度小于64时执行一次位桶数组的扩容,当位桶数组长度已经大于64时将链表转换成红黑树。如果链表长度小于6时,会将红黑树转换成链表。因为红黑树在增加,删除节点时需要维护树的平衡,增加了计算复杂度。这样做也是为了提供HashMap的性能考虑。以下是HashMap在JDK8下的结构图:

hashmap8.png
hashmap8.png

2. 新的Node节点插入到链表的位置不同

在JDK 7 中链表上插入节点是头部插入

在JDK 8 中链表上插入节点是尾部插入

3. hash算法的简化

JDK8 中的Hash实现更加简洁,将更多性能方面的考虑交由红黑树去实现。

4. 扩容机制不同

在JDK1.7的时候是直接用hash值和需要扩容的二进制数进行&(这里就是为什么扩容的时候为啥一定必须是2的多少次幂的原因所在,因为如果只有2的n次幂的情况时最后一位二进制数才一定是1,这样能最大程度减少hash碰撞)(hash值 & length-1)

而在JDK1.8的时候直接用了JDK1.7的时候计算的规律,也就是扩容前的原始位置+扩容的大小值=JDK1.8的计算方式,而不再是JDK1.7的那种异或的方法。但是这种方式就相当于只需要判断Hash值的新增参与运算的位是0还是1就直接迅速计算出了扩容后的储存方式。


1 HashMap中的节点

1.Node 节点

Node是HashMap中用来承载我们的数据载体。我们通过put,get 方法用来存储或获取值最终都是体现在Node上。

Node 是HashMap中定义的一个静态内部类,它是一个单向链表。实现Map.Entry<K,V>接口

 static class Node<K,V> implements Map.Entry<K,V> {
     final int hash;//hash值
     final K key;
     V value;
     Node<K,V> next; //下一个node节点引用
     
     Node(int hash, K key, V value, Node<K,V> next) {
        this.hash = hash;
        this.key = key;
        this.value = value;
        this.next = next;
     }
     
     /**
     * 忽略中间源码
     */
     
     //重写了equals方法,equal方法用来判断插入的节点已存在,
     //判断条件如果插入的是同一对象返回true,否则判断两个对象的key,和 value
     //是否都相同,如果key 和 value都相等 则也返回true 。其他情况返回false
     public final boolean equals(Object o) {
        if (o == this)
            return true;
        if (o instanceof Map.Entry) {
            Map.Entry<?,?> e = (Map.Entry<?,?>)o;
            if (Objects.equals(key, e.getKey()) &&
               Objects.equals(value, e.getValue()))
               return true;
            }
            return false;
        }
     }   
 }
  1. TreeNode TreeNode  是JDK8 中HashMap链表长度大于等于7时会将链表转换成红黑树。红黑树是一种自平衡的二叉查找树。在HashMap 中也是承载我们数据的节点对象
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
   TreeNode<K,V> parent;  // 父节点
   TreeNode<K,V> left;    //左子树
   TreeNode<K,V> right;   //右子树
   TreeNode<K,V> prev;    //上一个节点
   boolean red; //颜色
   
   TreeNode(int hash, K key, V val, Node<K,V> next) {
      super(hash, key, val, next);
   }
   
   //根据当前节点找到根节点
   final TreeNode<K,V> root() {
       for (TreeNode<K,V> r = this, p;;) {
            if ((p = r.parent) == null)
                return r;
                r = p;
            }
        }
   }
   
}
2 HashMap中的属性,常量

1:loadFactor DEFAULT_INITIAL_CAPACITY

HashMap中默认的位桶数组的长度。默认值1 << 4 (16)

当我们new HashMap() 时,如果在构造器中不传值,或者传的值小于16 则HashMap会生成一个默认值是16的位桶数组。

2: DEFAULT_LOAD_FACTOR

HashMap 的负载因子默认 0.75f. 此负载因子的作用是为了位桶数组的扩容。当我们插入一个元素至位桶数组中(未发生hash碰撞的情况)时会检查是否需要扩容,依据是当前位桶数组长度 负载因子 是否小等于当前插入元素的下标。如果当前元素的下标已经大于等于 位桶长度 负载因子 时就会进行一次扩容。扩容大小为原理长度的一倍。

3: MAXIMUM_CAPACITY

HashMap的最大容量 1<< 30

4:TREEIFY_THRESHOLD

链表转红黑树的阈值 默认值8

5:UNTREEIFY_THRESHOLD

红黑树转链表的阈值 默认值 6

6:MIN_TREEIFY_CAPACITY

红黑树的最小容量 默认值 64

3 HashMap中的构造器
// 传入初始容量及 自定义的加载因子
public HashMap(int initialCapacity, float loadFactor) {
    if (initialCapacity < 0)
        throw new IllegalArgumentException("Illegal initial capacity: " +
                                            initialCapacity);
    if (initialCapacity > MAXIMUM_CAPACITY)
        initialCapacity = MAXIMUM_CAPACITY;
    if (loadFactor <= 0 || Float.isNaN(loadFactor))
        throw new IllegalArgumentException("Illegal load factor: " +
                                            loadFactor);
    this.loadFactor = loadFactor;
    this.threshold = tableSizeFor(initialCapacity);
}
// 只传入初始容量,加载因子使用默认值 0.75
public HashMap(int initialCapacity) {
    this(initialCapacity, DEFAULT_LOAD_FACTOR);
}

// 使用默认初始容量 16 ,默认加载因子 0.75
public HashMap() {
    this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}

// 使用已有map为构造函数
 public HashMap(Map<? extends K, ? extends V> m) {
    this.loadFactor = DEFAULT_LOAD_FACTOR;
    putMapEntries(m, false);
}
4 HashMap取值
   public V get(Object key) {
        Node<K,V> e;
        //根据key 和 key的 hash值取获取node节点
        //如果未null 直接返回null, 因此 hashMap 允许key 是 null
        //由此看出获取value的 方法是 getNode
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }
    
    /**
    *  1 将key经过hash 计算得到hash值,然后根据hash值定位元素在位桶数组中的下标
    *  2 在位桶数组对应下标出的链表上逐一比对,根据key 的 equal 方法判断
    *  3 
    */
    final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; //EntryTable 数组对象 
        Node<K,V> first, //第一个Node节点
        e; 
        int n; K k;
        // if 条件用来判断 当前位桶数组下标处的链表上所有节点key的 hash值相同
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
            //判断第一个节点的key 是否和目标key 相同。如果相同返回第一个节点
            //条件 第一个节点的key的hash值和目标key一致 ,切 第一个节点值和目标key一致
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            //否则遍历链表后面所有节点,找到key值相等的节点    
            if ((e = first.next) != null) {
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }
5 HashMap存值

HashMap 的存储过程相对复杂一点,其流程图入下图所示:

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
                   
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        //如果位桶数组是空或者长度是0 则对位桶数组进行一次扩容
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        //获取当前key对应的节点,如果节点为空则插入新节点
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        //处理hash冲突    
        else {
            Node<K,V> e; K k;
            // 如果key的hash相同,而且key值也相等。则覆盖节点
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            //如果节点类型是红黑树类型。则进行红黑树节点的插入    
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                //循环遍历找出链表上的最后一个节点
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        //找到最后一个节点后,创建新的节点并将最后一个节点的next 指向新创建的节点
                        p.next = newNode(hash, key, value, null);
                        //记录链表长度并判断 链表长度是否 大于等于 7 
                        if (binCount >= TREEIFY_THRESHOLD - 1) 
                            // 如果大于等于7则进行tree节点操作
                            treeifyBin(tab, hash);
                        break;
                    }
                   
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
             //如果链表存在相同节点则覆盖旧节点
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        //记录修改次数,并判断是否达到扩容阈值,如果超过则进行扩容
        ++modCount;
        threshold = 负载因子 * 数组长度
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }
    
    
     final void treeifyBin(Node<K,V>[] tab, int hash) {
        int n, index; Node<K,V> e;
        //如果位桶数组长度小于 64, 则执行一次扩容
        if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
            resize();
        else if ((e = tab[index = (n - 1) & hash]) != null) {
        // 负责对链表进行红黑树转换
            TreeNode<K,V> hd = null, tl = null;
            do {
                TreeNode<K,V> p = replacementTreeNode(e, null);
                if (tl == null)
                    hd = p;
                else {
                    p.prev = tl;
                    tl.next = p;
                }
                tl = p;
            } while ((e = e.next) != null);
            if ((tab[index] = hd) != null)
                hd.treeify(tab);
        }
    }
6 HashMap扩容

当HashMap 在put值时,如果 HashMpa 为空,或者length =0 时会进行resize 扩容

当链表长度大于等于 7 而且 hashMap 长度小于 64 时会进行resize扩容

当put值是如果数组size 达到扩容阈值时会进行resize扩容

进行resize扩容一次,将原位桶数组长度扩大一倍

final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length; //旧的容量
        int oldThr = threshold; //旧的扩容临界值
        int newCap, newThr = 0; //新的容量,新的扩容临界值
        //就的容量大于0 而且 就的容量大于HashMap 定义的最大容量 1 >> 30
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                //就扩容临街值定义为 Integer的最大值。不再进行扩容
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            //如果新的容量等于 旧容量翻倍后还小于 最大容量,而且旧容量大于等于默认初始容量
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                //进行库容,新容量 = 就容量的2倍     
                newThr = oldThr << 1; // double threshold
        }
        //初始化时 新容量 = 旧容量
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults
            //新容量等于默认初始容量 16
            newCap = DEFAULT_INITIAL_CAPACITY;
            //新的扩容临界值 = 初始默认容量 * 负载因子 = 16 * 0.75 = 12
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        //设置默认容量,需要根据loadFactory 设置扩容临界值
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
        //创建新的表,并初始化原始数据  
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        //库容有需要将node节点重新放入扩容后的数组中
        if (oldTab != null) {
            //开始遍历原来的旧表        
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)
                        //当前位桶数组出如果没有节点。则将Node直接放入第一个位置
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                       //如果是树节点 则需要执行split方法
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                       //处理链表节点的扩容
                       //preserve order保证顺序,进行节点搬移
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        //循环遍历链表
                        do {
                            //记录下一个结点  
                            next = e.next;
                            //新表是旧表的两倍容量,实例上就把单链表拆分为两队, 
                            // 旧表中节点的下标和新表中一直的节点 复制到lo链表
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                            // 旧表中节点的下标和新表下标不一致的 放在hiTail 链表
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        //lo队不为null,放在新表原位置  
                        if (loTail != null) {
                            loTail.next = null;//释放节点
                            newTab[j] = loHead;
                        }
                        //hi队不为null,放在新表j+oldCap位置  
                        if (hiTail != null) {
                            hiTail.next = null;//释放节点
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 HashMap中的节点
  • 2 HashMap中的属性,常量
  • 3 HashMap中的构造器
  • 4 HashMap取值
  • 5 HashMap存值
  • 6 HashMap扩容
相关产品与服务
对象存储
对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档