学习总结录 学习总结录
首页
归档
分类
标签
  • Java基础
  • Java集合
  • MySQL
  • Redis
  • JVM
  • 多线程
  • 计算机网络
  • 操作系统
  • Spring
  • Kafka
  • Elasticsearch
  • Python
  • 面试专题
  • 案例实践
  • 工具使用
  • 项目搭建
  • 服务治理
  • ORM框架
  • 分布式组件
  • MiniSpring
  • 设计模式
  • 算法思想
  • 编码规范
友链
关于
GitHub (opens new window)
首页
归档
分类
标签
  • Java基础
  • Java集合
  • MySQL
  • Redis
  • JVM
  • 多线程
  • 计算机网络
  • 操作系统
  • Spring
  • Kafka
  • Elasticsearch
  • Python
  • 面试专题
  • 案例实践
  • 工具使用
  • 项目搭建
  • 服务治理
  • ORM框架
  • 分布式组件
  • MiniSpring
  • 设计模式
  • 算法思想
  • 编码规范
友链
关于
GitHub (opens new window)
  • Java基础

  • Java集合

    • Java集合-ArrayList
    • Java集合-LinkedList
    • Java集合-Set
    • Java集合-Queue
    • Java集合-HashMap
      • Java集合-HashMap
      • HashMap核心字段
      • HashMap底层实现
        • JDK1.7
        • JDK1.8
        • 为什么要变成红黑树
        • 为什么要超过一定长度才变成红黑树
      • 构造方法
      • put方法
      • get方法
      • hash方法
      • resize方法
        • 什么时候扩容
        • 扩容原理
        • 扩容为什么是2的幂次方
      • 参考
    • Java集合-LinkedHashMap
    • Java集合-ConcurrentHashMap
  • MySQL

  • Redis

  • JVM

  • 多线程

  • 计算机网络

  • Spring

  • Kafka

  • Elasticsearch

  • Python

  • 面试专题

  • 知识库
  • Java集合
旭日
2023-03-31
目录

Java集合-HashMap

# Java集合-HashMap

HashMap是以散列方式存储键值对。同时允许使用空值和空键。这个类不保序;特别是,它的元素顺序可能会随着时间的推移变化。

HashMap实例有两个影响其性能的参数:初始容量和负载因子。

  • 容量是哈希表中桶的数量,初始容量就是哈希表创建时的容量。
  • 加载因子是散列表在其容量自动扩容之前被允许的最大饱和量。当哈希表中的 entry 数量超过负载因子和当前容量的乘积时,散列表就会被重新映射(即重建内部数据结构),一般散列表大约是存储桶数量的两倍。

# HashMap核心字段

public class HashMap<K,V> extends AbstractMap<K,V>
    implements Map<K,V>, Cloneable, Serializable {

    // 该表在初次使用时初始化,并根据需要调整大小。分配时,长度总是2的幂。
    transient Node<K,V>[] table;
    // 保存缓存的 entrySet()。请注意,AbstractMap 字段用于 keySet() 和 values()。
    transient Set<Map.Entry<K,V>> entrySet;
    // map 中的键值对数
    transient int size;
    // 这个HashMap被结构修改的次数结构修改是那些改变HashMap中的映射数量或者修改其内部结构(例如,重新散列)的修改。
    transient int modCount;
    // 下一个调整大小的值(容量*加载因子)。
    int threshold;
    // 散列表的加载因子
    final float loadFactor;
}
  • table:在第一次使用时初始化,并根据需要调整大小。分配时,长度总是2的幂。
  • size:初始容量。 初始为 16,每次容量不够自动扩容
  • loadFactor: 负载因子。自动扩容之前被允许的最大饱和量,默认 0.75。

# HashMap底层实现

由于计算Hash的时候会存在哈希冲突,HashMap在1.7和1.8解决哈希冲突的方案不相同。

# JDK1.7

采用的数组+链表的方式解决哈希冲突。

# JDK1.8

之前数组+链表的方式存在一个弊端:

当计算出的Hash大量落在同一个Node上的时候,会出现这个链表特别长,导致查询性能下降。

针对这个情况,1.8进行了改变:

  • 长度没有超过阈值8的时候,还是采用数组+链表的方式来解决哈希冲突
  • 当长度超过阈值8的时候,采用红黑树的方式来解决哈希冲突

image-20230404104220736

# 为什么要变成红黑树

  • 链表:查找的时间复杂度与链表的长度相关,为 O(1 + N)。
  • 红黑树:降低查询消耗,超过阈值8,转成红黑树,将查找的时间复杂度变为 O(1 + logN)。

# 为什么要超过一定长度才变成红黑树

红黑树类似于二叉平衡树,在插入的时候需要进行旋转,插入的成本比较高。

# 构造方法

构造方法1

    /**
     * 构造一个具有默认初始容量(16)和默认负载因子(0.75)的空HashMap。
     */
    public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
    }

其中默认的初始容量和负载因子如下:

    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

构造方法2

	/**
    * 构造一个具有指定初始容量和默认负载因子(0.75)的空HashMap。
    */
	public HashMap(int initialCapacity) {
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }

构造方法3

    /**
    * 以 initialCapacity 初始化容量;以 loadFactor 初始化加载因子
    */
	public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        this.threshold = tableSizeFor(initialCapacity);
    }

其中最大容量如下:

	/**
	* 最大容量,如果更高的值由任何一个构造函数用参数隐式指定,则使用该值。必须是二的幂<= 1<<30。
	*/
    static final int MAXIMUM_CAPACITY = 1 << 30;

构造方法4

	/**
	* 用与指定Map相同的映射构造一个新的HashMap。创建HashMap时使用默认负载因子(0.75)和足够容纳指定Map中的映射的初始容量。
	*/
	public HashMap(Map<? extends K, ? extends V> m) {
        this.loadFactor = DEFAULT_LOAD_FACTOR;
        putMapEntries(m, false);
    }

# put方法

put方法的大致思路如下:

  • 对 key 的 hashCode() 做 hash 计算,然后根据 hash 值再计算 Node 的存储位置;
  • 如果没有哈希碰撞,直接放到桶里;如果有哈希碰撞,以链表的形式存在桶后。
  • 如果哈希碰撞导致链表过长(大于等于 TREEIFY_THRESHOLD,数值为 8),就把链表转换成红黑树;
  • 如果节点已经存在就替换旧值
  • 桶数量超过负载因子 * 当前容量(即 load factor * current capacity ),HashMap 调用 resize 自动扩容一倍
    public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }

    // hashcode 无符号位移 16 位
    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                       boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        // tab 为空则创建
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        // 计算 index,并对 null 做处理
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else {
            Node<K,V> e; K k;
            // 节点存在
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            // 该链为树
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            // 该链为链表
            else {
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        // 如果超过链表长度超过8,链表转换成红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            // 写入
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

# get方法

get方法的大致思路如下:

  • 对 key 的 hashCode() 做 hash 计算,然后根据 hash 值再计算桶的 index
  • 如果桶中的第一个节点命中,直接返回;
  • 如果有冲突,则通过 key.equals(k) 去查找对应的 entry
    • 若为树,则在红黑树中通过 key.equals(k) 查找,O(logn);
    • 若为链表,则在链表中通过 key.equals(k) 查找,O(n)。
    public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }

    final Node<K,V> getNode(int hash, Object key) {
            Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
            // 直接命中
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            // 未命中
            if ((e = first.next) != null) {
                // 在树中 get
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                // 在链表中 get
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }

# hash方法

在get和put方法中都会去hashcode进行hash操作,然后再通过 hash 值进一步计算下标。

    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

以看到这个方法大概的作用就是:高 16bit 不变,低 16bit 和高 16bit 做了一个异或。

# resize方法

当 put 时,如果发现目前的 bucket 占用程度已经超过了 Load Factor 所希望的比例,那么就会发生 resize。在 resize 的过程,简单的说就是把 bucket 扩充为 2 倍,之后重新计算 index,把节点再放到新的 bucket 中。

# 什么时候扩容

当 键值对数量size > 扩容因子loadFactor * 哈希表大小 时,容器将自动扩容并重新哈希。

# 扩容原理

由于是扩充为 2 倍,并且table的大小是2的指数幂,所以,元素的位置要么是在原位置,要么是在原位置再移动 2 次幂的位置。

image-20221121160531513

因此元素在重新计算 hash 之后,因为 n 变为 2 倍,那么 n-1 的 mask 范围在高位多 1bit(红色),因此新的 index 就会发生这样的变化:

image-20221121160618662

因此,我们在扩充 HashMap 的时候,不需要重新计算 hash,只需要看看原来的 hash 值新增的那个 bit 是 1 还是 0 就好了,是 0 的话索引没变,是 1 的话索引变成“原索引+oldCap”。

final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;
    if (oldCap > 0) {
        // 超过最大值就不再扩充了,就只好随你碰撞去吧
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 没超过最大值,就扩充为原来的 2 倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                    oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }

    // 计算新的 resize 上限
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                    (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;
    @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;
    if (oldTab != null) {
        // 把每个 bucket 都移动到新的 buckets 中
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        // 原索引
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        // 原索引+oldCap
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    // 原索引放到bucket里
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    // 原索引+oldCap放到bucket里
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

# 扩容为什么是2的幂次方

  • 性能上:位运算,速度快,由于是位运算所以肯定是二次方
  • 散列上:2的次数幂能够让数据更散列更均匀的分布,充分利用数组空间,尽可能减少元素位置的移动

# 参考

Java容器之Map (opens new window)

#Java
上次更新: 2024/06/29, 15:13:44
Java集合-Queue
Java集合-LinkedHashMap

← Java集合-Queue Java集合-LinkedHashMap→

最近更新
01
基础概念
10-31
02
Pytorch
10-30
03
Numpy
10-30
更多文章>
Theme by Vdoing | Copyright © 2021-2024 旭日 | 蜀ICP备2021000788号-1
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式