前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >HashMap 夺命 14 问!

HashMap 夺命 14 问!

作者头像
JavaFish
发布2022-04-18 18:49:44
3120
发布2022-04-18 18:49:44
举报

哈喽,小伙伴们好。金三银四可能很多小伙伴都考虑换个环境,那么面试是少不了的,基础更加重要。

周末逛论坛发现下面 14 个关于 HashMap 的问题,分享给大家,基本上理解了这些问题,HashMap 难不到你了。

01 HashMap的底层数据结构是什么?

在 JDK1.7 中和 JDK1.8 中有所区别:

在JDK1.7中,由数组+链表组成,数组是 HashMap 的主体,链表则是主要为了解决哈希冲突而存在的。

在 JDK1.8 中,有数组+链表+红黑树组成。当链表过长,则会严重影响 HashMap 的性能,红黑树搜索时间复杂度是O(logn),而链表是O(n)。因此,JDK1.8 对数据结构做了进一步的优化,引入了红黑树,链表和红黑树在达到一定条件会进行转换:

  • 当链表超过8且数组长度(数据总量)超过64才会转为红黑树
  • 将链表转换成红黑树前会判断,如果当前数组的长度小于64,那么会选择先进行数组扩容,而不是转换为红黑树,以减少搜索时间。

02 说一下HashMap的特点

  • hashmap 存取是无序的
  • 键和值位置都可以是 null,但是键位置只能是一个 null
  • 键位置是唯一的,底层的数据结构是控制键的
  • jdk1.8 前数据结构是:链表+数组 jdk1.8 之后是:数组+链表+红黑树
  • 阈值(边界值)>8 并且数组长度大于 64,才将链表转换成红黑树,变成红黑树的目的是提高搜索速度,高效查询

03 解决 hash 冲突的办法有哪些? HashMap 用的哪种?

解决 Hash 冲突方法有:开放定址法、再哈希法、链地址法( HashMap 中常见的拉链法)、简历公共溢出区。HashMap 中采用的是链地址法。

  • 开放定址法也称为再散列法,基本思想就是,如果 p=H(key) 出现冲突时,则以p为基础,再次 hash,p1=H(p),如果 p1 再次出现冲突,则以 p1 为基础,以此类推,直到找到一个不冲突的哈希地址 pi 。因此开放定址法所需要的 hash 表的长度要大于等于所需要存放的元素,而且因为存在再次 hash,所以只能在删除的节点上做标记,而不能真正删除节点
  • 再哈希法(双重散列,多重散列),提供多个不同的 hash 函数,R1=H1(key1) 发生冲突时,再计算 R2=H2(key1),直到没有冲突为止。这样做虽然不易产生堆集,但增加了计算的时间。
  • 链地址法(拉链法),将哈希值相同的元素构成一个同义词的单链表,并将单链表的头指针存放在哈希表的第i个单元中,查找、插入和删除主要在同义词链表中进行,链表法适用于经常进行插入和删除的情况。
  • 建立公共溢出区,将哈希表分为公共表和溢出表,当溢出发生时,将所有溢出数据统一放到溢出区

注意开放定址法和再哈希法的区别是

  • 开放定址法只能使用同一种 hash 函数进行再次 hash,再哈希法可以调用多种不同的 hash 函数进行再次 hash

04 为什么要在数组长度大于 64 之后,链表才会进化为红黑树

在数组比较小时如果出现红黑树结构,反而会降低效率,而红黑树需要进行左旋右旋,变色,这些操作来保持平衡,同时数组长度小于 64 时,搜索时间相对要快些,总之是为了加快搜索速度,提高性能

JDK1.8 以前 HashMap 的实现是数组+链表,即使哈希函数取得再好,也很难达到元素百分百均匀分布。当HashMap中有大量的元素都存放在同一个桶中时,这个桶下有一条长长的链表,此时HashMap就相当于单链表,假如单链表有n个元素,遍历的时间复杂度就从O(1)退化成O(n),完全失去了它的优势,为了解决此种情况,JDK1.8中引入了红黑树(查找的时间复杂度为O(logn))来优化这种问题

05 为什么加载因子设置为 0.75,初始化临界值是 12?

HashMap 中的 threshold 是 HashMap 所能容纳键值对的最大值。计算公式为length*LoadFactory。也就是说,在数组定义好长度之后,负载因子越大,所能容纳的键值对个数也越大

loadFactory 越趋近于 1,那么数组中存放的数据(entry 也就越来越多),数据也就越密集,也就会有更多的链表长度处于更长的数值,我们的查询效率就会越低,当我们添加数据,产生 hash 冲突的概率也会更高

默认的 loadFactory 是 0.75,loadFactory 越小,越趋近于 0,数组中个存放的数据 (entry) 也就越少,表现得更加稀疏

0.75 是对空间和时间效率的一种平衡选择

如果负载因子小一些比如是 0.4,那么初始长度 16*0.4=6,数组占满 6 个空间就进行扩容,很多空间可能元素很少甚至没有元素,会造成大量的空间被浪费

如果负载因子大一些比如是 0.9,这样会导致扩容之前查找元素的效率非常低

loadfactory 设置为 0.75 是经过多重计算检验得到的可靠值,可以最大程度的减少 rehash 的次数,避免过多的性能消耗

06 哈希表底层采用何种算法计算 hash 值?还有哪些算法可以计算出 hash 值?

hashCode 方法是 Object 中的方法,所有的类都可以对其进行使用,首先底层通过调用 hashCode 方法生成初始 hash 值 h1,然后将 h1 无符号右移 16 位得到 h2,之后将 h1 与 h2 进行按位异或(^)运算得到最终 hash 值 h3,之后将 h3 与(length-1)进行按位与(&)运算得到 hash 表索引

其他可以计算出 hash 值的算法有

  • 平方取中法
  • 取余数
  • 伪随机数法

07 当两个对象的 hashCode 相等时会怎样

hashCode 相等产生 hash 碰撞,hashCode 相等会调用 equals 方法比较内容是否相等,内容如果相等则会进行覆盖,内容如果不等则会连接到链表后方,链表长度超过 8 且数组长度超过 64,会转变成红黑树节点

08何时发生哈希碰撞和什么是哈希碰撞,如何解决哈希碰撞?

只要两个元素的 key 计算的hash码值相同就会发生 hash 碰撞,jdk8 之前使用链表解决哈希碰撞,jdk8 之后使用链表+红黑树解决哈希碰撞

09 HashMap的put方法流程

以 jdk8 为例,简要流程如下:

  1. 首先根据key的值计算hash值,找到该元素在数组中存储的下标
  2. 如果数组是空的,则调用resize进行初始化;
  3. 如果没有哈希冲突直接放在对应的数组下标里
  4. 如果冲突了,且key已经存在,就覆盖掉value
  5. 如果冲突后是链表结构,就判断该链表是否大于8,如果大于8并且数组容量小于64,就进行扩容;如果链表节点数量大于8并且数组的容量大于64,则将这个结构转换成红黑树;否则,链表插入键值对,若key存在,就覆盖掉value
  6. 如果冲突后,发现该节点是红黑树,就将这个节点挂在树上

10 HashMap的扩容方式

HashMap 在容量超过负载因子所定义的容量之后,就会扩容。java 里的数组是无法自己扩容的,将 HashMap 的大小扩大为原来数组的两倍

我们来看 jdk1.8 扩容的源码

代码语言:javascript
复制
final Node<K,V>[] resize() {  
        //oldTab:引用扩容前的哈希表  
        Node<K,V>[] oldTab = table;  
        //oldCap:表示扩容前的table数组的长度  
        int oldCap = (oldTab == null) ? 0 : oldTab.length;  
        //获得旧哈希表的扩容阈值  
        int oldThr = threshold;  
        //newCap:扩容之后table数组大小  
        //newThr:扩容之后下次触发扩容的条件  
        int newCap, newThr = 0;  
        //条件成立说明hashMap中的散列表已经初始化过了,是一次正常扩容  
        if (oldCap > 0) {  
            //判断旧的容量是否大于等于最大容量,如果是,则无法扩容,并且设置扩容条件为int最大值,  
            //这种情况属于非常少数的情况  
            if (oldCap >= MAXIMUM_CAPACITY) {  
                threshold = Integer.MAX_VALUE;  
                return oldTab;  
            }//设置newCap新容量为oldCap旧容量的二倍(<<1),并且<最大容量,而且>=16,则新阈值等于旧阈值的两倍  
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&  
                     oldCap >= DEFAULT_INITIAL_CAPACITY)  
                newThr = oldThr << 1; // double threshold  
        }  
        //如果oldCap=0并且边界值大于0,说明散列表是null,但此时oldThr>0  
        //说明此时hashMap的创建是通过指定的构造方法创建的,新容量直接等于阈值  
        //1.new HashMap(intitCap,loadFactor)  
        //2.new HashMap(initCap)  
        //3.new HashMap(map)  
        else if (oldThr > 0) // initial capacity was placed in threshold  
            newCap = oldThr;  
        //这种情况下oldThr=0;oldCap=0,说明没经过初始化,创建hashMap  
        //的时候是通过new HashMap()的方式创建的  
        else {               // zero initial threshold signifies using defaults  
            newCap = DEFAULT_INITIAL_CAPACITY;  
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);  
        }  
        //newThr为0时,通过newCap和loadFactor计算出一个newThr  
        if (newThr == 0) {  
            //容量*0.75  
            float ft = (float)newCap * loadFactor;  
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?  
                      (int)ft : Integer.MAX_VALUE);  
        }  
        threshold = newThr;  
        @SuppressWarnings({"rawtypes","unchecked"})  
                //根据上面计算出的结果创建一个更长更大的数组  
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];  
        //将table指向新创建的数组  
        table = newTab;  
        //本次扩容之前table不为null  
        if (oldTab != null) {  
            //对数组中的元素进行遍历  
            for (int j = 0; j < oldCap; ++j) {  
                //设置e为当前node节点  
                Node<K,V> e;  
                //当前桶位数据不为空,但不能知道里面是单个元素,还是链表或红黑树,  
                //e = oldTab[j],先用e记录下当前元素  
                if ((e = oldTab[j]) != null) {  
                    //将老数组j桶位置为空,方便回收  
                    oldTab[j] = null;  
                    //如果e节点不存在下一个节点,说明e是单个元素,则直接放置在新数组的桶位  
                    if (e.next == null)  
                        newTab[e.hash & (newCap - 1)] = e;  
                    //如果e是树节点,证明该节点处于红黑树中  
                    else if (e instanceof TreeNode)  
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);  
                    //e为链表节点,则对链表进行遍历  
                    else { // preserve order  
                        //低位链表:存放在扩容之后的数组的下标位置,与当前数组下标位置一致  
                        //loHead:低位链表头节点  
                        //loTail低位链表尾节点  
                        Node<K,V> loHead = null, loTail = null;  
                        //高位链表,存放扩容之后的数组的下标位置,=原索引+扩容之前数组容量  
                        //hiHead:高位链表头节点  
                        //hiTail:高位链表尾节点  
                        Node<K,V> hiHead = null, hiTail = null;  
                        Node<K,V> next;  
                        do {  
                            next = e.next;  
                            //oldCap为16:10000,与e.hsah做&运算可以得到高位为1还是0  
                            //高位为0,放在低位链表  
                            if ((e.hash & oldCap) == 0) {  
                                if (loTail == null)  
                                    //loHead指向e  
                                    loHead = e;  
                                else  
                                    loTail.next = e;  
                                loTail = e;  
                            }  
                            //高位为1,放在高位链表  
                            else {  
                                if (hiTail == null)  
                                    hiHead = e;  
                                else  
                                    hiTail.next = e;  
                                hiTail = e;  
                            }  
                        } while ((e = next) != null);  
                        //低位链表已成,将头节点loHead指向在原位  
                        if (loTail != null) {  
                            loTail.next = null;  
                            newTab[j] = loHead;  
                        }  
                        //高位链表已成,将头节点指向新索引  
                        if (hiTail != null) {  
                            hiTail.next = null;  
                            newTab[j + oldCap] = hiHead;  
                        }  
                    }  
                }  
            }  
        }  
        return newTab;  
    }  

扩容之后原位置的节点只有两种调整

  • 保持原位置不动(新 bit 位为 0 时)
  • 散列原索引 + 扩容大小的位置去(新 bit 位为1时)

扩容之后元素的散列设置的非常巧妙,节省了计算 hash 值的时间,我们来看一 下具体的实现

当数组长度从 16 到 32,其实只是多了一个 bit 位的运算,我们只需要在意那个多出来的 bit 为是 0 还是 1,是 0 的话索引不变,是 1 的话索引变为当前索引值 + 扩容的长度,比如 5 变成5+16=21

这样的扩容方式不仅节省了重新计算 hash 的时间,而且保证了当前桶中的元素总数一定小于等于原来桶中的元素数量,避免了更严重的 hash 冲突,均匀的把之前冲突的节点分散到新的桶中去

11 一般用什么作为 HashMap 的 key?

一般用Integer、String这种不可变类当HashMap当key

  • 因为String是不可变的,当创建字符串时,它的hashcode被缓存下来,不需要再次计算,相对于其他对象更快
  • 因为获取对象的时候要用到equals()hashCode()方法,那么键对象正确的重写这两个方法是非常重要的,这些类很规范的重写了hashCode()以及equals()方法

12 为什么 Map 桶中节点个数超过 8 才转为红黑树?

8 作为阈值作为 HashMap 的成员变量,在源码的注释中并没有说明阈值为什么是 8

在 HashMap 中有这样一段注释说明,我们继续看

代码语言:javascript
复制
 * Because TreeNodes are about twice the size of regular nodes, we  
 * use them only when bins contain enough nodes to warrant use  
 * (see TREEIFY_THRESHOLD). And when they become too small (due to  
 * removal or resizing) they are converted back to plain bins.  In  
 * usages with well-distributed user hashCodes, tree bins are  
 * rarely used.  Ideally, under random hashCodes, the frequency of  
 * nodes in bins follows a Poisson distribution  
 * (http://en.wikipedia.org/wiki/Poisson_distribution) with a  
 * parameter of about 0.5 on average for the default resizing  
 * threshold of 0.75, although with a large variance because of  
 * resizing granularity. Ignoring variance, the expected  
 * occurrences of list size k are (exp(-0.5) * pow(0.5, k) /  
 * factorial(k)).  

翻译一下

因为树节点的大小大约是普通节点的两倍,所以我们只在箱子包含足够的节点时才使用树节点。

当他们边的太小(由于删除或调整大小)时,就会被转换回普通的桶,在使用分布良好的 hashcode 时,很少使用树箱。理想情况下,在随机哈希码下,箱子中节点的频率服从泊松分布

第一个值是:

代码语言:javascript
复制
 * 0:    0.60653066  
 * 1:    0.30326533  
 * 2:    0.07581633  
 * 3:    0.01263606  
 * 4:    0.00157952  
 * 5:    0.00015795  
 * 6:    0.00001316  
 * 7:    0.00000094  
 * 8:    0.00000006  
 * more: less than 1 in ten million  

树节点占用空间是普通 Node 的两倍,如果链表节点不够多却转换成红黑树,无疑会耗费大量的空间资源,并且在随机 hash 算法下的所有bin节点分布频率遵从泊松分布,链表长度达到8的概率只有 0.00000006,几乎是不可能事件,所以 8 的计算是经过重重科学考量的

  • 从平均查找长度来看,红黑树的平均查找长度是 logn,如果长度为 8,则logn=3,而链表的平均查找长度为n/4,长度为 8 时,n/2=4,所以阈值 8 能大大提高搜索速度
  • 当长度为 6 时红黑树退化为链表是因为 logn=log6 约等于 2.6,而 n/2=6/2=3,两者相差不大,而红黑树节点占用更多的内存空间,所以此时转换最为友好

13 HashMap 为什么线程不安全?

  • 多线程下扩容死循环。JDK1.7 中的 HashMap 使用头插法插入元素,在多线程的环境下,扩容的时候有可能导致环形链表的出现,形成死循环。因此 JDK1.8 使用尾插法插入元素,在扩容时会保持链表元素原本的顺序,不会出现环形链表的问题
  • 多线程的 put 可能导致元素的丢失。多线程同时执行 put 操作,如果计算出来的索引位置是相同的,那会造成前一个 key 被后一个 key 覆盖,从而导致元素的丢失。此问题在 JDK1.7 和 JDK1.8 中都存在
  • put 和 get 并发时,可能导致 get 为 null。线程 1 执行 put 时,因为元素个数超出 threshold 而导致 rehash,线程 2 此时执行 get,有可能导致这个问题,此问题在 JDK1.7 和 JDK1.8 中都存在

14 计算 hash 值时为什么要让低 16bit 和高 16bit 进行异或处理

我们计算索引需要将 hashCode 值与 length-1 进行按位与运算,如果数组长度很小,比如 16,这样的值和 hashCode 做异或实际上只有 hashCode 值的后 4 位在进行运算,hash 值是一个随机值,而如果产生的 hashCode 值高位变化很大,而低位变化很小,那么有很大概率造成哈希冲突,所以我们为了使元素更好的散列,将 hash 值的高位也利用起来

举个例子

如果我们不对 hashCode 进行按位异或,直接将 hash 和 length-1 进行按位与运算就有可能出现以下的情况

如果下一次生成的 hashCode 值高位起伏很大,而低位几乎没有变化时,高位无法参与运算

可以看到,两次计算出的 hash 相等,产生了 hash 冲突

所以无符号右移 16 位的目的是使高混乱度地区与地混乱度地区做一个中和,提高低位的随机性,减少哈希冲突

文章中出现的关于面试题的错误请在评论区指出,我再进行改正优化。如果文章对你有所帮助,来一个免费的赞吧,感谢大家。

参考链接

  • blog.csdn.net/wenwenaier/article/ details/123335563
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-03-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 一个优秀的废人 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 01 HashMap的底层数据结构是什么?
  • 02 说一下HashMap的特点
  • 03 解决 hash 冲突的办法有哪些? HashMap 用的哪种?
  • 04 为什么要在数组长度大于 64 之后,链表才会进化为红黑树
  • 05 为什么加载因子设置为 0.75,初始化临界值是 12?
  • 06 哈希表底层采用何种算法计算 hash 值?还有哪些算法可以计算出 hash 值?
  • 07 当两个对象的 hashCode 相等时会怎样
  • 08何时发生哈希碰撞和什么是哈希碰撞,如何解决哈希碰撞?
  • 09 HashMap的put方法流程
  • 10 HashMap的扩容方式
  • 11 一般用什么作为 HashMap 的 key?
  • 12 为什么 Map 桶中节点个数超过 8 才转为红黑树?
  • 13 HashMap 为什么线程不安全?
  • 14 计算 hash 值时为什么要让低 16bit 和高 16bit 进行异或处理
  • 参考链接
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档