温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

JDK8中HashMap初始化和扩容机制的示例分析

发布时间:2021-06-21 10:46:23 来源:亿速云 阅读:240 作者:小新 栏目:开发技术

这篇文章主要介绍JDK8中HashMap初始化和扩容机制的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!

一、HashMap初始化方法

HashMap() 不带参数,默认初始化大小为16,加载因子为0.75;

HashMap(int initialCapacity) 指定初始化大小;

HashMap(int initialCapacity, float loadFactor) 指定初始化大小和加载因子大小;

HashMap(Map<? extends K,? extends V> m) 用现有的一个map来构造HashMap。

JDK8中HashMap初始化和扩容机制的示例分析

二、分析初始化过程

1、初始化代码测试用例

Map<String, String> map = new HashMap<>(3);
map.put("id", "1");
map.put("name", "riemann");
map.put("sex", "male");

2、初始化过程

public HashMap(int initialCapacity, float loadFactor) {
 // 初始化大小小于0,抛出异常
    if (initialCapacity < 0)
        throw new IllegalArgumentException("Illegal initial capacity: " +
                                           initialCapacity);
    // 初始大小最大为默认最大值
    if (initialCapacity > MAXIMUM_CAPACITY)
        initialCapacity = MAXIMUM_CAPACITY;
    // 加载因子要在0到1之间
    if (loadFactor <= 0 || Float.isNaN(loadFactor))
        throw new IllegalArgumentException("Illegal load factor: " +
                                           loadFactor);
    this.loadFactor = loadFactor;
    // threshold是根据当前的初始化大小和加载因子算出来的边界大小,
    // 当桶中的键值对超过这个大小就进行扩容
    this.threshold = tableSizeFor(initialCapacity);
}

此时:loadFactor = 0.75 默认值

// 这个方法返回大于输入参数且最接近的2的整数次幂的数
static final int tableSizeFor(int cap) {
    int n = cap - 1;
    // 无符号向右移动 
    // 按位或
    n |= n >>> 1;
    n |= n >>> 2;
    n |= n >>> 4;
    n |= n >>> 8;
    n |= n >>> 16;
    return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

此时:threshold = 4

三、分析扩容过程

1、第一次执行put操作后

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    // 如果存储元素的table为空,则进行必要字段的初始化
    if ((tab = table) == null || (n = tab.length) == 0)
    	// 获取长度
        n = (tab = resize()).length;
    // 如果根据hash值获取的结点为空,则新建一个结点
    // 此处 & 代替了 % (除法散列法进行散列)
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    // 这里的p结点是根据hash值算出来对应在数组中的元素
    else {
        Node<K,V> e; K k;
        // 如果新插入的结点和table中p结点的hash值,key值相同的话
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        // 如果是红黑树结点的话,进行红黑树插入
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        else {
            for (int binCount = 0; ; ++binCount) {
            	// 代表这个单链表只有一个头部结点,则直接新建一个结点即可
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    // 链表长度大于8时,将链表转红黑树
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                // 及时更新p
                p = e;
            }
        }
        // 如果存在这个映射就覆盖
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            // 判断是否允许覆盖,并且value是否为空
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            // 回调以允许LinkedHashMap后置操作
            afterNodeAccess(e);
            return oldValue;
        }
    }
    // 更改操作次数
    ++modCount;
    // 大于临界值
    if (++size > threshold)
    	// 将数组大小设置为原来的2倍,并将原先的数组中的元素放到新数组中
        // 因为有链表,红黑树之类,因此还要调整他们
        resize();
    // 回调以允许LinkedHashMap后置操作
    afterNodeInsertion(evict);
    return null;
}

2、第一put会进行resize()操作:

// 初始化或者扩容之后元素调整
final Node<K,V>[] resize() {
	// 获取旧元素数组的各种信息
    Node<K,V>[] oldTab = table;
    // 长度
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    // 扩容的临界值
    int oldThr = threshold;
    // 定义新数组的长度及扩容的临界值
    int newCap, newThr = 0;
    // 如果原table不为空
    if (oldCap > 0) {
    	// 如果数组长度达到最大值,则修改临界值为Integer.MAX_VALUE
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 下面就是扩容操作(2倍)
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            // threshold也变为二倍
            newThr = oldThr << 1; // double threshold
    }
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;
    // threshold为0,则使用默认值
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    // 如果临界值还为0,则设置临界值
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    // 更新填充因子
    threshold = newThr;
    @SuppressWarnings({"rawtypes","unchecked"})
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;
    // 调整数组大小之后,需要调整红黑树或者链表的指向
    if (oldTab != null) {
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                // 红黑树调整
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order
                	// 链表调整
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

四、小结

第一次put后:threshold = newCap * loadFactor = oldThr * loadFactor = 4 * 0.75 = 3

第二次put后:++size = 3,不进行扩容

第三次put后:++size = 4,进行扩容

oldCap = oldTab.length = 3
newcap = oldCap << 1 = 6
threshold = newThr = newCap * loadFactor = 6 * 0.75 = 4

结论:设置初始化容量n,初始化threshold = 大于n数且最接近的2的整数次幂的数 * 负载因子

JDK8中的HashMap深入理解

一、首先看一下HashMap的数据结构(数组+链表/红黑树),如下图:

JDK8中HashMap初始化和扩容机制的示例分析

1、红黑树特性(缺一不可):

(1)、每个节点要么是红色要么是黑色。

(2)、根节点是黑色。

(3)、所有叶子节点都是黑色(叶子节点为NIL或者NULL节点)。

(4)、不存在两个连续的红色节点。

(5)、任意节点(包含跟节点)到其叶子节点的所有路径都包含相同数目的黑色节点。

2、为什么HashMap中使用红黑树而不使用AVL树呢?

红黑树被称为弱AVL树,牺牲了严格的高度平衡的优越条件为代价(红黑树左右子树的高度差不超过一倍即可)使其能够以O(log2 n)的时间复杂度进行搜索、插入、删除操作;此外,由于它的设计,任何不平衡都会在三次旋转之内解决。因为HashMap的使用场景中插入和删除操作是非常频繁的,所以在HashMap中使用了红黑树。

3、红黑树RBT与平衡二叉树AVL比较:

(1)、红黑树和AVL树类似,都是在进行插入和删除操作时通过特定操作保持二叉查找树的平衡,从而获得较高的查找性能。

(2)、红黑树和AVL树的区别在于它使用颜色来标识节点的高度,它所追求的是局部平衡而不是AVL树中的非常严格的平衡。

(3)、AVL 树比红黑树更加平衡,但AVL树在插入和删除的时候也会存在大量的旋转操作。所以当你的应用涉及到频繁的插入和删除操作,切记放弃AVL树,选择性能更好的红黑树;当然,如果你的应用中涉及的插入和删除操作并不频繁,而是查找操作相对更频繁,那么就优先选择 AVL 树进行实现。

二、HashMap元素插入过程及一些参数的详解

1、首先,需要了解HashMap源码中几个重要的参数:

DEFAULT_INITIAL_CAPACITY:默认初始化大小

MAXIMUM_CAPACITY:最大容量

DEFAULT_LOAD_FACTOR:默认的负载因子

TREEIFY_THRESHOLD:链表转化为红黑树的阈值(包含)

UNTREEIFY_THRESHOLD:红黑树转化为链表的阈值(包含)

MIN_TREEIFY_CAPACITY:当数组大小小于该值时,不进行链表向红黑树的转化,而是进行扩容

JDK8中HashMap初始化和扩容机制的示例分析

2、HashMap存储元素过程:

JDK8中HashMap初始化和扩容机制的示例分析

(1)图中刚开始有计算 key 的 hash 值的设计?

拿到 key 的 hashCode,并将 hashCode 的高16位和 hashCode 进行异或(XOR)运算,得到最终的 hash 值。

JDK8中HashMap初始化和扩容机制的示例分析

(2)为什么要将 hashCode 的高16位参与运算?

主要是为了在 table 的长度较小的时候,让高位也参与运算,并且不会有太大的开销。

(3)为什么链表转红黑树的阈值是8?

我们平时在进行方案设计时,必须考虑的两个很重要的因素是:时间和空间。对于 HashMap 也是同样的道理,简单来说,阈值为8是在时间和空间上权衡的结果。红黑树节点大小约为链表节点的2倍,在节点太少时,红黑树的查找性能优势并不明显,付出2倍空间的代价不值得。理想情况下,使用随机的哈希码,节点分布在 hash 桶中的频率遵循泊松分布,按照泊松分布的公式计算,链表中节点个数为8时的概率为0.00000006,这个概率足够低了,并且到8个节点时,红黑树的性能优势也会开始展现出来,因此8是一个较合理的数字。

(4)HashMap 的默认初始容量是多少?HashMap 的容量有什么限制吗?

默认初始容量是16。HashMap 的容量必须是2的N次方,HashMap 会根据我们传入的容量计算一个大于等于该容量的最小的2的N次方,例如传 9,容量为16。

JDK8中HashMap初始化和扩容机制的示例分析

(5)为什么HashMap 的容量必须是 2 的 N 次方?

计算索引位置的公式为:(n - 1) & hash,当 n 为2的N 次方时,n - 1为低位全是 1 的值,此时任何值跟 n - 1 进行 &运算的结果为该值的低 N 位,达到了和取模同样的效果,实现了均匀分布。实际上,这个设计就是基于公式:x mod 2^n = x & (2^n - 1),因为 &运算比 mod 具有更高的效率。当 n 不为 2 的 N 次方时,hash 冲突的概率明显增大。

(6)为什么HashMap的负载因子默认为0.75?

JDK8中HashMap初始化和扩容机制的示例分析

在HashMap的类注释上有如图一段解释:大致意思是说负载因子是0.75的时候,空间利用率比较高,而且避免了相当多的Hash冲突,使得底层的链表或者是红黑树的高度比较低,提升了空间效率。

以上是“JDK8中HashMap初始化和扩容机制的示例分析”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注亿速云行业资讯频道!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI