前言 Map 和 List 一样是否的常用和重要, 我们来看看 HashMap 内部是怎么搞的。
源码分析 我们主要了解其主要流程和实现方式, 所以仅仅分析其重要成员变量、 构造方法、 添加及删除。
重要成员变量 1 2 3 4 transient Node<K,V>[] table;transient int size;int threshold;final float loadFactor;
本次主要分析的就上面四个变量, 当然还有好多常量比较重要, 也无非是要给常量值不重要, 我们只是分析其内部实现, 具体分析到再说。
table: 存储数据的节点。 这个眼看是数组, 难道是数组存储结构, 也不全错, 因为有一半是对的。 我们知道 Map 是以 Key-Value 结构存储的, 其中 Key 是 Hash 值的一个映射, 这样会有一个问题, 就是 Hash 碰撞冲突了, 简单的来说就是多个 key 通过计算在一个数据的下标下面去了, 这样就需要在这个位置记录多个数据。 HashMap 是在这个节点往外拉出去一个链表去存储, 取值的时候, 如果查询当前下标是一个链的话, 就查询该链中对于的 Key 的数据并返回。 其中为了查询更快, 如果当前链小于 8 的时候是单链表, 一旦大于等于 8 了, 就把该结点整体改成一个红黑树结构进行存储。
size: 当前存储数据的个数。
threshold: 扩容的一个阈值, 阈值, 也就是当存储的数据判断大于这个阈值了, 就对整个数组进行 resize 扩容。
loadFactor: 负载系数。 这个又是啥呢, 这个系数就是控制阈值呢。 怎么说呢, 其实就是 threshold = table.length * loadFactor。
构造方法 1 2 3 4 5 6 7 8 9 10 11 12 public HashMap () { this .loadFactor = DEFAULT_LOAD_FACTOR; } public HashMap (int initialCapacity) { this (initialCapacity, DEFAULT_LOAD_FACTOR); } public HashMap (int initialCapacity, float loadFactor) { this .loadFactor = loadFactor; this .threshold = tableSizeFor(initialCapacity); }
构造方法很简单, 通过上面来看, 其中不带参数的初始化, 其他的情况下负载系数和阈值是有数据的。 所以说负载西河和阈值极可能有值也可能咩有值。 其中 tableSizeFor 是通过初始化容器阈值算出来值。 我们不妨来看看。
1 2 3 4 5 6 7 8 9 static final int tableSizeFor (int cap) { int n = cap - 1 ; n |= n >>> 1 ; n |= n >>> 2 ; n |= n >>> 4 ; n |= n >>> 8 ; n |= n >>> 16 ; return (n < 0 ) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1 ; }
位操作, 这是什么写法? 怎么理解这个算法。 看注释是把传入的数据转换成 2 的次幂。 这是怎么得到呢。 其实一开始我也很疑惑为啥只是无符号右移 16 位呢? 通过测试好多数据发现最后都是一串 1(处理前面的 0), 这是怎么搞出来的。 其实也很简单, 先说为什么只无符号右移 16 位, 因为我们看看操作和返回的数据类型, 都是 int 整形, 其为 32 位, 所以我们把前面的 16 位再平移 16 位不正好把 int 整形给操作完了嘛。 我们再来看看这个算法,我们看到都是当前 n 与上偏移后的, 比如第 5 的位置是 1 再与上第 5 位偏移 1, 那么现在第 5 位和第 4 位都是 1 了, 下面在再把本身和偏移 2 位, 这不正好把上面那个的两个 1 也通过复制到了第 3 和 2 的位置上了嘛, 依次类推, 最后得出来的数据肯定是不管前面是多少个 0 后面全是 1, 这肯定是 2 的次幂呀。
数据添加 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 public V put (K key, V value) { return putVal(hash(key), key, value, false , true ); } final V putVal (int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; if ((tab = table) == null || (n = tab.length) == 0 ) n = (tab = resize()).length; if ((p = tab[i = (n - 1 ) & hash]) == null ) tab[i] = newNode(hash, key, value, null ); else { Node<K,V> e; K k; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this , tab, hash, key, value); else { for (int binCount = 0 ; ; ++binCount) { if ((e = p.next) == null ) { p.next = newNode(hash, key, value, null ); if (binCount >= TREEIFY_THRESHOLD - 1 ) treeifyBin(tab, hash); break ; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break ; p = e; } } if (e != null ) { V oldValue = e.value; if (!onlyIfAbsent || oldValue == null ) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; if (++size > threshold) resize(); afterNodeInsertion(evict); return null ; }
通过上面的代码我们可以看到, 最后添加数据调用的是 putVal。 那么好我们先分析主流程, 细节最后再说。 首先我们看到如果 table 数据容器为空或者没有长度的话, 就进行了 resize, 容器为空了, 肯定是要初始化的哈(其实就是根据阈值等对容器的初始化), 细节先不看, 先看主流程。 初始化完成后, 通过 tab[i = (n -1 ) & hash] 如果等于空了, 说明这个位置没有碰撞哈, 所以直接放进去就好了。 我们主要看下下面有碰撞的情况。 首先判断当前添加的数据是不是就是我们当前位置的的那个节点, 如果是的话直接把数据修改了就好。 如果不是第一个数据的话, 判断当前节点是不是一个红黑树, 如果是的话, 就交给红黑树去处理。 如果不是的话, 就是一个单链表啦, 可以看到是一个一个的循环往后查找的, 如果查找到了就对改节点赋值, 如果没有找到就新增一个新的节点加入到尾部。 注意了, 添加完成后会对这个数量进行判断, 如果 >= 7 的话, 那么就把运行了 breeifyBin 方法, 就把该链转成 红黑树啦。
OK 通过上面的主流程都分析完了, 还是很简单的。 那么好, 我们现在看看八个 resize 方法怎么通过阈值、 负载系数进行初始化和处理的。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null ) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0 ; if (oldCap > 0 ) { if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1 ) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1 ; } else if (oldThr > 0 ) newCap = oldThr; else { newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int )(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0 ) { float ft = (float )newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float )MAXIMUM_CAPACITY ? (int )ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node [newCap]; table = newTab; if (oldTab != null ) { for (int j = 0 ; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null ) { oldTab[j] = null ; if (e.next == null ) newTab[e.hash & (newCap - 1 )] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this , newTab, j, oldCap); else { Node<K,V> loHead = null , loTail = null ; Node<K,V> hiHead = null , hiTail = null ; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0 ) { if (loTail == null ) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null ) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null ); if (loTail != null ) { loTail.next = null ; newTab[j] = loHead; } if (hiTail != null ) { hiTail.next = null ; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
看着简单, 其实还是有点饶呢, 我们直接把最后的如果 oldTab 不为空然后构造出一个新的剔除吧, 这个没有必要分析了。 我们从头看其逻辑。
1 2 3 4 5 6 7 8 9 if (oldCap > 0 ) { if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1 ) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1 ; }
这个判断我们看到只有 oldCap > 0 的时候才会进入, 那什么时候不满足呢, 也就是初始化的时候, 容器未初始化和没有数据的时候, 等下, 没有数据是什么意思, 是数组的 length 哈。 其中大小大于 MAXIMUM_CAPACITY 忽略, 太大了。 我们看下面的判断, 新的数据大小扩大一倍后, 如果旧的数据大小大于等于了 DEFAULT_INITIAL_CAPACITY(16) 了, 其中阈值也扩大一倍, 那就是数据容量扩大一倍后, 如果以前的容器大小还不到 16 的话, 其中阈值不变呢。
1 2 3 4 5 6 else if (oldThr > 0 ) newCap = oldThr; else { newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int )(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); }
接着往下看, 如果 以前的容器大小 <= 0, 会运行上面 else if 或者 else 的逻辑。 我可能看下如果以前的阈值大于 0 的话,也就是有数据的话, 就直接赋值给了当成本次新的容器大小, 嗯? 有点疑惑哈, 不是阈值应该比容器大小要小吗? 这个问题后面代码就有做处理啦。 其中能进来的可能性就是初始化没有数据, 但是设置了阈值, 就直接吧阈值的大小当成当前本次初始化容器的大小。 我们看下最后的 else, 这个就简单了, 如果初始化没有数据且也没有设置阈值的话, 就以默认的赋值。
1 2 3 4 5 if (newThr == 0 ) { float ft = (float )newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float )MAXIMUM_CAPACITY ? (int )ft : Integer.MAX_VALUE); }
这里就是上面说的那个阈值一定要比容器大小小的原因了, 其中可以认真看下 newThr 什么时候为 0, 其中进第一个判断可能为 0, 进第二个判断里肯定为 0。 至少在第二个判断里, 我们把当前设置的阈值设置成了当前容器大小, 现在在这一步就是要把阈值重新计算到负载因子的倍数啦, 所以在这里就变小啦。 那么第一种可能为 0 的情况是什么呢, 我们看下, oldCap > 0 说明有大小了, 扩大两倍后, 如果以前的容器大小 < 16 的话, 就直接以负载因子进行计算的, 但是如果容器大小大于等于 16 了, 就不再以负载因子计算了, 而是直接扩大两倍。 需要注意哈。
获取数据 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 public V get (Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } final Node<K,V> getNode (int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1 ) & hash]) != null ) { if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k)))) return first; if ((e = first.next) != null ) { if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null ); } } return null ; }
获取数据就不再过多分析了, 因为代码很简单明了。 其实就是通过 hash 值找到当前 key 所在的位置, 然后判断是不是当前数据, 如果不是就看是查询那条链了, 判断是红黑树还是普通的链表, 然后去循环查询即可。