前言

Map 和 List 一样是否的常用和重要, 我们来看看 HashMap 内部是怎么搞的。

源码分析

我们主要了解其主要流程和实现方式, 所以仅仅分析其重要成员变量、 构造方法、 添加及删除。

重要成员变量

1
2
3
4
transient Node<K,V>[] table;
transient int size;
int threshold;
final float loadFactor;

本次主要分析的就上面四个变量, 当然还有好多常量比较重要, 也无非是要给常量值不重要, 我们只是分析其内部实现, 具体分析到再说。

  • table: 存储数据的节点。 这个眼看是数组, 难道是数组存储结构, 也不全错, 因为有一半是对的。 我们知道 Map 是以 Key-Value 结构存储的, 其中 Key 是 Hash 值的一个映射, 这样会有一个问题, 就是 Hash 碰撞冲突了, 简单的来说就是多个 key 通过计算在一个数据的下标下面去了, 这样就需要在这个位置记录多个数据。 HashMap 是在这个节点往外拉出去一个链表去存储, 取值的时候, 如果查询当前下标是一个链的话, 就查询该链中对于的 Key 的数据并返回。 其中为了查询更快, 如果当前链小于 8 的时候是单链表, 一旦大于等于 8 了, 就把该结点整体改成一个红黑树结构进行存储。
  • size: 当前存储数据的个数。
  • threshold: 扩容的一个阈值, 阈值, 也就是当存储的数据判断大于这个阈值了, 就对整个数组进行 resize 扩容。
  • loadFactor: 负载系数。 这个又是啥呢, 这个系数就是控制阈值呢。 怎么说呢, 其实就是 threshold = table.length * loadFactor。

构造方法

1
2
3
4
5
6
7
8
9
10
11
12
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR;
}

public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}

public HashMap(int initialCapacity, float loadFactor) {
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}

构造方法很简单, 通过上面来看, 其中不带参数的初始化, 其他的情况下负载系数和阈值是有数据的。 所以说负载西河和阈值极可能有值也可能咩有值。
其中 tableSizeFor 是通过初始化容器阈值算出来值。 我们不妨来看看。

1
2
3
4
5
6
7
8
9
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

位操作, 这是什么写法? 怎么理解这个算法。 看注释是把传入的数据转换成 2 的次幂。 这是怎么得到呢。 其实一开始我也很疑惑为啥只是无符号右移 16 位呢? 通过测试好多数据发现最后都是一串 1(处理前面的 0), 这是怎么搞出来的。 其实也很简单, 先说为什么只无符号右移 16 位, 因为我们看看操作和返回的数据类型, 都是 int 整形, 其为 32 位, 所以我们把前面的 16 位再平移 16 位不正好把 int 整形给操作完了嘛。
我们再来看看这个算法,我们看到都是当前 n 与上偏移后的, 比如第 5 的位置是 1 再与上第 5 位偏移 1, 那么现在第 5 位和第 4 位都是 1 了, 下面在再把本身和偏移 2 位, 这不正好把上面那个的两个 1 也通过复制到了第 3 和 2 的位置上了嘛, 依次类推, 最后得出来的数据肯定是不管前面是多少个 0 后面全是 1, 这肯定是 2 的次幂呀。

数据添加

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}

通过上面的代码我们可以看到, 最后添加数据调用的是 putVal。 那么好我们先分析主流程, 细节最后再说。
首先我们看到如果 table 数据容器为空或者没有长度的话, 就进行了 resize, 容器为空了, 肯定是要初始化的哈(其实就是根据阈值等对容器的初始化), 细节先不看, 先看主流程。 初始化完成后, 通过 tab[i = (n -1 ) & hash] 如果等于空了, 说明这个位置没有碰撞哈, 所以直接放进去就好了。 我们主要看下下面有碰撞的情况。
首先判断当前添加的数据是不是就是我们当前位置的的那个节点, 如果是的话直接把数据修改了就好。
如果不是第一个数据的话, 判断当前节点是不是一个红黑树, 如果是的话, 就交给红黑树去处理。
如果不是的话, 就是一个单链表啦, 可以看到是一个一个的循环往后查找的, 如果查找到了就对改节点赋值, 如果没有找到就新增一个新的节点加入到尾部。 注意了, 添加完成后会对这个数量进行判断, 如果 >= 7 的话, 那么就把运行了 breeifyBin 方法, 就把该链转成 红黑树啦。

OK 通过上面的主流程都分析完了, 还是很简单的。 那么好, 我们现在看看八个 resize 方法怎么通过阈值、 负载系数进行初始化和处理的。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}

看着简单, 其实还是有点饶呢, 我们直接把最后的如果 oldTab 不为空然后构造出一个新的剔除吧, 这个没有必要分析了。 我们从头看其逻辑。

1
2
3
4
5
6
7
8
9
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}

这个判断我们看到只有 oldCap > 0 的时候才会进入, 那什么时候不满足呢, 也就是初始化的时候, 容器未初始化和没有数据的时候, 等下, 没有数据是什么意思, 是数组的 length 哈。 其中大小大于 MAXIMUM_CAPACITY 忽略, 太大了。 我们看下面的判断, 新的数据大小扩大一倍后, 如果旧的数据大小大于等于了 DEFAULT_INITIAL_CAPACITY(16) 了, 其中阈值也扩大一倍, 那就是数据容量扩大一倍后, 如果以前的容器大小还不到 16 的话, 其中阈值不变呢。

1
2
3
4
5
6
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}

接着往下看, 如果 以前的容器大小 <= 0, 会运行上面 else if 或者 else 的逻辑。 我可能看下如果以前的阈值大于 0 的话,也就是有数据的话, 就直接赋值给了当成本次新的容器大小, 嗯? 有点疑惑哈, 不是阈值应该比容器大小要小吗? 这个问题后面代码就有做处理啦。 其中能进来的可能性就是初始化没有数据, 但是设置了阈值, 就直接吧阈值的大小当成当前本次初始化容器的大小。 我们看下最后的 else, 这个就简单了, 如果初始化没有数据且也没有设置阈值的话, 就以默认的赋值。

1
2
3
4
5
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}

这里就是上面说的那个阈值一定要比容器大小小的原因了, 其中可以认真看下 newThr 什么时候为 0, 其中进第一个判断可能为 0, 进第二个判断里肯定为 0。 至少在第二个判断里, 我们把当前设置的阈值设置成了当前容器大小, 现在在这一步就是要把阈值重新计算到负载因子的倍数啦, 所以在这里就变小啦。
那么第一种可能为 0 的情况是什么呢, 我们看下, oldCap > 0 说明有大小了, 扩大两倍后, 如果以前的容器大小 < 16 的话, 就直接以负载因子进行计算的, 但是如果容器大小大于等于 16 了, 就不再以负载因子计算了, 而是直接扩大两倍。 需要注意哈。

获取数据

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}

final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}

获取数据就不再过多分析了, 因为代码很简单明了。 其实就是通过 hash 值找到当前 key 所在的位置, 然后判断是不是当前数据, 如果不是就看是查询那条链了, 判断是红黑树还是普通的链表, 然后去循环查询即可。