Java集合-HashMap
# Java集合-HashMap
HashMap是以散列方式存储键值对。同时允许使用空值和空键。这个类不保序;特别是,它的元素顺序可能会随着时间的推移变化。
HashMap实例有两个影响其性能的参数:初始容量和负载因子。
- 容量是哈希表中桶的数量,初始容量就是哈希表创建时的容量。
- 加载因子是散列表在其容量自动扩容之前被允许的最大饱和量。当哈希表中的 entry 数量超过负载因子和当前容量的乘积时,散列表就会被重新映射(即重建内部数据结构),一般散列表大约是存储桶数量的两倍。
# HashMap核心字段
public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable {
// 该表在初次使用时初始化,并根据需要调整大小。分配时,长度总是2的幂。
transient Node<K,V>[] table;
// 保存缓存的 entrySet()。请注意,AbstractMap 字段用于 keySet() 和 values()。
transient Set<Map.Entry<K,V>> entrySet;
// map 中的键值对数
transient int size;
// 这个HashMap被结构修改的次数结构修改是那些改变HashMap中的映射数量或者修改其内部结构(例如,重新散列)的修改。
transient int modCount;
// 下一个调整大小的值(容量*加载因子)。
int threshold;
// 散列表的加载因子
final float loadFactor;
}
- table:在第一次使用时初始化,并根据需要调整大小。分配时,长度总是2的幂。
- size:初始容量。 初始为 16,每次容量不够自动扩容
- loadFactor: 负载因子。自动扩容之前被允许的最大饱和量,默认 0.75。
# HashMap底层实现
由于计算Hash的时候会存在哈希冲突,HashMap在1.7和1.8解决哈希冲突的方案不相同。
# JDK1.7
采用的数组+链表
的方式解决哈希冲突。
# JDK1.8
之前数组+链表
的方式存在一个弊端:
当计算出的Hash大量落在同一个Node上的时候,会出现这个链表特别长,导致查询性能下降。
针对这个情况,1.8进行了改变:
- 长度没有超过阈值
8
的时候,还是采用数组+链表
的方式来解决哈希冲突 - 当长度超过阈值
8
的时候,采用红黑树
的方式来解决哈希冲突
# 为什么要变成红黑树
- 链表:查找的时间复杂度与链表的长度相关,为
O(1 + N)
。 - 红黑树:降低查询消耗,超过阈值
8
,转成红黑树,将查找的时间复杂度变为O(1 + logN)
。
# 为什么要超过一定长度才变成红黑树
红黑树类似于二叉平衡树,在插入的时候需要进行旋转,插入的成本比较高。
# 构造方法
构造方法1
/**
* 构造一个具有默认初始容量(16)和默认负载因子(0.75)的空HashMap。
*/
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
其中默认的初始容量和负载因子如下:
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
static final float DEFAULT_LOAD_FACTOR = 0.75f;
构造方法2
/**
* 构造一个具有指定初始容量和默认负载因子(0.75)的空HashMap。
*/
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
构造方法3
/**
* 以 initialCapacity 初始化容量;以 loadFactor 初始化加载因子
*/
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
其中最大容量如下:
/**
* 最大容量,如果更高的值由任何一个构造函数用参数隐式指定,则使用该值。必须是二的幂<= 1<<30。
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
构造方法4
/**
* 用与指定Map相同的映射构造一个新的HashMap。创建HashMap时使用默认负载因子(0.75)和足够容纳指定Map中的映射的初始容量。
*/
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
# put方法
put方法的大致思路如下:
- 对 key 的
hashCode()
做 hash 计算,然后根据 hash 值再计算 Node 的存储位置; - 如果没有哈希碰撞,直接放到桶里;如果有哈希碰撞,以链表的形式存在桶后。
- 如果哈希碰撞导致链表过长(大于等于
TREEIFY_THRESHOLD
,数值为 8),就把链表转换成红黑树; - 如果节点已经存在就替换旧值
- 桶数量超过负载因子 * 当前容量(即 load factor * current capacity ),HashMap 调用
resize
自动扩容一倍
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
// hashcode 无符号位移 16 位
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// tab 为空则创建
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 计算 index,并对 null 做处理
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 节点存在
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 该链为树
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 该链为链表
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 如果超过链表长度超过8,链表转换成红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 写入
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
# get方法
get方法的大致思路如下:
- 对 key 的 hashCode() 做 hash 计算,然后根据 hash 值再计算桶的 index
- 如果桶中的第一个节点命中,直接返回;
- 如果有冲突,则通过
key.equals(k)
去查找对应的 entry- 若为树,则在红黑树中通过 key.equals(k) 查找,O(logn);
- 若为链表,则在链表中通过 key.equals(k) 查找,O(n)。
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 直接命中
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 未命中
if ((e = first.next) != null) {
// 在树中 get
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 在链表中 get
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
# hash方法
在get
和put
方法中都会去hashcode
进行hash
操作,然后再通过 hash
值进一步计算下标。
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
以看到这个方法大概的作用就是:高 16bit 不变,低 16bit 和高 16bit 做了一个异或。
# resize方法
当 put
时,如果发现目前的 bucket 占用程度已经超过了 Load Factor 所希望的比例,那么就会发生 resize。在 resize 的过程,简单的说就是把 bucket 扩充为 2 倍,之后重新计算 index,把节点再放到新的 bucket 中。
# 什么时候扩容
当 键值对数量size > 扩容因子loadFactor * 哈希表大小
时,容器将自动扩容并重新哈希。
# 扩容原理
由于是扩充为 2 倍,并且table的大小是2的指数幂,所以,元素的位置要么是在原位置,要么是在原位置再移动 2 次幂的位置。
因此元素在重新计算 hash 之后,因为 n 变为 2 倍,那么 n-1 的 mask 范围在高位多 1bit(红色),因此新的 index 就会发生这样的变化:
因此,我们在扩充 HashMap 的时候,不需要重新计算 hash,只需要看看原来的 hash 值新增的那个 bit 是 1 还是 0 就好了,是 0 的话索引没变,是 1 的话索引变成“原索引+oldCap”。
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
// 超过最大值就不再扩充了,就只好随你碰撞去吧
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 没超过最大值,就扩充为原来的 2 倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 计算新的 resize 上限
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
// 把每个 bucket 都移动到新的 buckets 中
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
// 原索引
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
// 原索引+oldCap
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 原索引放到bucket里
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
// 原索引+oldCap放到bucket里
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
# 扩容为什么是2的幂次方
- 性能上:位运算,速度快,由于是位运算所以肯定是二次方
- 散列上:2的次数幂能够让数据更散列更均匀的分布,充分利用数组空间,尽可能减少元素位置的移动