HashMap集合中的put方法,看完这一篇就够了

共 9796字,需浏览 20分钟

 ·

2021-12-17 23:32

点击关注公众号,Java干货及时送达


作者 | 汪伟俊

 | 公众号:Java技术迷(JavaFans1024)

引言

在Java集合中,HashMap的重要性不言而喻,作为一种存储键值对的数据结构,它在日常开发中有着非常多的应用场景,也是面试中的高频考点,本篇文章就来分析一下HashMap集合中的put方法。

HashMap底层数据结构

先来了解一下HashMap底层的数据结构,它实质上是一个散列表,在数据结构课程中,我们应该都学习过散列表,它是通过关键码值而直接进行访问的一种数据结构,比如存储这样的一个序列:5,12,7,6,1,3。我们首先需要设定一个hash函数,通过该函数就能够定位每个元素存储的位置,比如hash函数为 H(k) = k % 6,那么每个元素的存储位置即为:1,0,1,0,1,3,此时问题就出现了,有几个元素的存储位置计算后发现是一样的,而一个位置不可能存放两个值,这就是hash冲突。

解决哈希冲突的方式有很多:

1.线性探测法2.伪随机数法3.链地址法

若是采用较为简单的线性探测法,则将产生冲突的元素向后移动一个位置,若是仍然有冲突,则继续后移一位,由此可得每个元素的存储位置:


image.png


在HashMap中,它的设计当然是要精妙很多的,查阅其源码:

static class Node implements Map.Entry {    final int hash;    final K key;    V value;    Node next;
Node(int hash, K key, V value, Node next) { this.hash = hash; this.key = key; this.value = value; this.next = next; }
public final K getKey() { return key; } public final V getValue() { return value; } public final String toString() { return key + "=" + value; }
public final int hashCode() { return Objects.hashCode(key) ^ Objects.hashCode(value); }
public final V setValue(V newValue) { V oldValue = value; value = newValue; return oldValue; }
public final boolean equals(Object o) { if (o == this) return true; if (o instanceof Map.Entry) { Map.Entry e = (Map.Entry)o; if (Objects.equals(key, e.getKey()) && Objects.equals(value, e.getValue())) return true; } return false; }}

我们发现了这样的一个内容类,它是一个Node节点,由此,我们可以猜测,HashMap对于冲突的解决办法采用的是链地址法,那么HashMap数据的真正存放位置是在哪呢?

transient Node[] table;

就是这样的一个Node数组。

put方法的执行流程

我们直接通过一个程序来理解HashMap中put方法的执行流程,在put方法中,HashMap需要经历初始化、存值、扩容、解决冲突等等操作:

public static void main(String[] args) {    Map<String, String> map = new HashMap<>();    map.put("name", "zs");    map.put("age", "20");    map.put("name", "lisi");    map.forEach((k, v) -> {        System.out.println(k + "--" + v);    });}

这段程序的运行结果我们都知道是name--lisi age -- 20,那为什么是这个结果呢?源码能够告诉我们答案。

首先执行第一行代码,调用HashMap的无参构造方法:

public HashMap() {    this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted}

在构造方法中,只是设置了一个loadFactor的成员变量,它表示的是hash表的负载因子,默认值为0.75,至于这个负载因子是什么,我们后面再说。

接下来程序会执行put方法:

public V put(K key, V value) {    return putVal(hash(key), key, value, false, true);}

put方法又调用了putVal方法,并传入了key的hash,key,value等等参数,所以先来计算key的hash:

static final int hash(Object key) {    int h;    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);}

这个hash是用来计算插入位置的,我们放到后面说,计算完key的hash后,它将调用putVal方法:

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,               boolean evict) {    Node[] tab; Node p; int n, i;    if ((tab = table) == null || (n = tab.length) == 0)        n = (tab = resize()).length;    if ((p = tab[i = (n - 1) & hash]) == null)        tab[i] = newNode(hash, key, value, null);    else {        Node e; K k;        if (p.hash == hash &&            ((k = p.key) == key || (key != null && key.equals(k))))            e = p;        else if (p instanceof TreeNode)            e = ((TreeNode)p).putTreeVal(this, tab, hash, key, value);        else {            for (int binCount = 0; ; ++binCount) {                if ((e = p.next) == null) {                    p.next = newNode(hash, key, value, null);                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st                        treeifyBin(tab, hash);                    break;                }                if (e.hash == hash &&                    ((k = e.key) == key || (key != null && key.equals(k))))                    break;                p = e;            }        }        if (e != null) { // existing mapping for key            V oldValue = e.value;            if (!onlyIfAbsent || oldValue == null)                e.value = value;            afterNodeAccess(e);            return oldValue;        }    }    ++modCount;    if (++size > threshold)        resize();    afterNodeInsertion(evict);    return null;}

该方法的前三行先定义了一个Node类型的数组和一个变量,并判断类成员中的table是否为空,前面我们已经说到,这个table就是真正来存储数据的数组,它的初始值肯定为空,所以会触发resize方法:

final Node[] resize() {    Node[] oldTab = table;    int oldCap = (oldTab == null) ? 0 : oldTab.length;    int oldThr = threshold;    int newCap, newThr = 0;    if (oldCap > 0) {        if (oldCap >= MAXIMUM_CAPACITY) {            threshold = Integer.MAX_VALUE;            return oldTab;        }        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&                 oldCap >= DEFAULT_INITIAL_CAPACITY)            newThr = oldThr << 1; // double threshold    }    else if (oldThr > 0) // initial capacity was placed in threshold        newCap = oldThr;    else {               // zero initial threshold signifies using defaults        newCap = DEFAULT_INITIAL_CAPACITY;        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);    }    if (newThr == 0) {        float ft = (float)newCap * loadFactor;        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?                  (int)ft : Integer.MAX_VALUE);    }    threshold = newThr;    @SuppressWarnings({"rawtypes","unchecked"})        Node[] newTab = (Node[])new Node[newCap];    table = newTab;    if (oldTab != null) {        for (int j = 0; j < oldCap; ++j) {            Node e;            if ((e = oldTab[j]) != null) {                oldTab[j] = null;                if (e.next == null)                    newTab[e.hash & (newCap - 1)] = e;                else if (e instanceof TreeNode)                    ((TreeNode)e).split(this, newTab, j, oldCap);                else { // preserve order                    Node loHead = null, loTail = null;                    Node hiHead = null, hiTail = null;                    Node next;                    do {                        next = e.next;                        if ((e.hash & oldCap) == 0) {                            if (loTail == null)                                loHead = e;                            else                                loTail.next = e;                            loTail = e;                        }                        else {                            if (hiTail == null)                                hiHead = e;                            else                                hiTail.next = e;                            hiTail = e;                        }                    } while ((e = next) != null);                    if (loTail != null) {                        loTail.next = null;                        newTab[j] = loHead;                    }                    if (hiTail != null) {                        hiTail.next = null;                        newTab[j + oldCap] = hiHead;                    }                }            }        }    }    return newTab;}

这个resize方法其实是相当复杂的,但我们捡出重要的代码来看,因为table的初始值为null,所以一定会进入下面的分支:

else {               // zero initial threshold signifies using defaults    newCap = DEFAULT_INITIAL_CAPACITY;    newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);}

它设置了两个变量的值,newCap = 16,newThr = 0.75 * 16 = 12,其中newCap就是本次需要创建的table数组的容量,而newThr就是实际只能存储的容量大小。

对于一个散列表,如果让其每个位置都占满元素,那么一定是已经产生大量的冲突了,但若是只让小部分位置存储元素,又会浪费散列表的空间,由此,前辈们经过大量的计算,得出散列表的总容量 * 0.75之后的值是散列表最合适的存储容量,这个0.75就被称为散列表中的负载因子。所以,HashMap在第一次调用put方法时会创建一个总容量为16的Node类型数组(前提是调用无参构造方法),但实际上只有12的容量可以被使用,当第13个元素插入时,就需要考虑扩容。

接下来就是初始化table数组:

threshold = newThr;@SuppressWarnings({"rawtypes","unchecked"})Node[] newTab = (Node[])new Node[newCap];table = newTab;

通过调用resize方法,我们就获得了一个容量为16的Node数组,紧接着就执行:

if ((p = tab[i = (n - 1) & hash]) == null)    tab[i] = newNode(hash, key, value, null);

还记得这个hash变量吗?它就是前面求得的key的hash值,通过n(table数组的长度,即:16)减1并与hash值做一个与运算,即可得到该数据的存储位置,它类似于文章开篇提到的hash函数 H(k) = k % 6,它做的也是这个操作,hash % n。需要注意,若是求模操作中,除数是2的幂次,则求模操作可以等价于与其除数减1的与操作,即:hash & (n - 1),因为&操作的效率是要高于求模运算的,所以HashMap会将n设计为2的幂次。

求得数据需要插入的位置后,就需要判断当前位置是否有元素,现在table数组中没有任何数据,所以第一次判断一定是null,符合条件,执行代码:tab[i] = newNode(hash, key, value, null);,创建了一个节点,并存入hash值,key、value及其指针域:

Node newNode(int hash, K key, V value, Node next) {    return new Node<>(hash, key, value, next);}

最后执行:

++modCount;if (++size > threshold)    resize();afterNodeInsertion(evict);

判断当前容量size是否超过了阈值threshold,若是超过了,还需要调用resize方法进行扩容。

到这里,第一个数据name:zs就插入成功了。

第二个数据age:20在这里就不作分析了,它和name的插入流程是一样的,我们分析一下第三个数据name:lisi的插入,这里涉及到了一个key重复的问题,来看看HashMap是如何处理的。

首先仍然是调用putVal方法,并计算key的hash值,然后判断当前table是否为空,这次table肯定不为空,所以直接走到:

if ((p = tab[i = (n - 1) & hash]) == null)    tab[i] = newNode(hash, key, value, null);

仍然通过(n - 1) & hash计算数据的插入位置,结果发现要插入的位置已经有元素了,就是name:zs,此时就产生了冲突,执行:

Node e; K k;if (p.hash == hash &&    ((k = p.key) == key || (key != null && key.equals(k))))    e = p;

现在的p就是name:zs,通过p的hash与当前数据key的hash比较,发现hash值相同,继续比较p的key,即:name与当前数据的key是否相同,发现仍然相同,此时就将p交给e管理,最后执行:

if (e != null) { // existing mapping for key    V oldValue = e.value;    if (!onlyIfAbsent || oldValue == null)        e.value = value;    afterNodeAccess(e);    return oldValue;}

此时e不为null,所以将e中的value值设置为当前数据的value值,由此,HashMap便成功将key为name的值修改为了lisi,并返回了原值zs。

总结

综上所述,我们能够得到以下结论:

HashMap的总容量一定是2的幂次方,即使通过构造函数传入一个不是2的幂次方的容量,HashMap也会将其扩充至与其最接近的2的幂次方的值;比如传入总容量为10,则HashMap会自动将容量扩充至16若是调用HashMap的无参构造方法,则将在第一次执行put方法时初始化一个总容量为16,实际可用容量为12的Node数组当实际容量超过阈值时,HashMap会进行扩容,扩容至原容量的2倍HashMap的put方法执行流程:首先判断当前table是否为空,若为空,则初始化,若不为空,则根据key的hash计算得到插入位置,再判断该位置是否有元素,若无元素,则直接插入,若有元素,则判断原位置数据的hash值与待插入数据的hash值是否相同,若相同,则继续比较值,若值不同,则创建一个新的Node节点,并使用尾插法将其插入到原数据的节点后面形成链表,若值相同,则采用待插入数据的值覆盖原数据的值,并返回原数据的值HashMap采用链地址法解决hash冲突,所以当某个链表的长度大于8,并且table数组的长度大于64,则当前链表会被转换为红黑树,若table数组的长度尚未达到64,则进行扩容;当链表长度小于6,则会将红黑树转回链表因为HashMap会根据key的hash值计算插入位置,所以key的数据类型一定要重写hashCode方法,否则会出现两个相同的key结果hash值不相同的情况,也需要重写equals方法,否则equals方法将比较的是地址值

本文作者:汪伟俊 为Java技术迷专栏作者 投稿,未经允许请勿转载

1、致歉!抖音Semi Design承认参考阿里Ant Design

2、对比7种分布式事务方案,还是偏爱阿里开源的Seata,真香!

3、Redis存储结构体信息,选hash还是string?

4、扫盲 docker 常用命令

5、最全分布式Session解决方案

6、21 款 yyds 的 IDEA插件

7、真香!用 IDEA 神器看源码,效率真高!

点分享

点收藏

点点赞

点在看

浏览 75
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报