LinkedHashMap
LinkedHashMap将HashMap和双向链表合二为一
HashMap和双向链表合二为一即是LinkedHashMap。所谓LinkedHashMap,其落脚点在HashMap,因此更准确地说,它是一个将所有Entry节点链入一个双向链表的HashMap。
概括的说,LinkedHashMap
是一个关联数组、哈希表,它是线程不安全的,允许key为null,value为null。
它继承自HashMap
,实现了Map<K,V>
接口。其内部还维护了一个双向链表,在每次插入数据,或者访问、修改数据时,会增加节点、或调整链表的节点顺序。以决定迭代时输出的顺序。
默认情况,遍历时的顺序是按照插入节点的顺序。这也是其与HashMap
最大的区别。
也可以在构造时传入accessOrder
参数,使得其遍历顺序按照访问的顺序输出。
因继承自HashMap
,所以HashMap
上文分析的特点,除了输出无序,其他LinkedHashMap
都有,比如扩容的策略,哈希桶长度一定是2的N次方等等。 LinkedHashMap
在实现时,就是重写override了几个方法。以满足其输出序列有序的需求。
参考dalao:https://blog.csdn.net/zxt0601/article/details/77429150
节点
LinkedHashMap
的节点Entry<K,V>
继承自HashMap.Node<K,V>
,在其基础上扩展了一下。改成了一个双向链表。
同时类里有两个成员变量head tail
,分别指向内部双向链表的表头、表尾。
构造函数
//默认是false,则迭代时输出的顺序是插入节点的顺序。若为true,则输出的顺序是按照访问节点的顺序。
//为true时,可以在这基础之上构建一个LruCach
final boolean accessOrder;
public LinkedHashMap() {
super();
accessOrder = false;
}
//指定初始化时的容量,
public LinkedHashMap(int initialCapacity) {
super(initialCapacity);
accessOrder = false;
}
//指定初始化时的容量,和扩容的加载因子
public LinkedHashMap(int initialCapacity, float loadFactor) {
super(initialCapacity, loadFactor);
accessOrder = false;
}
//指定初始化时的容量,和扩容的加载因子,以及迭代输出节点的顺序
public LinkedHashMap(int initialCapacity,
float loadFactor,
boolean accessOrder) {
super(initialCapacity, loadFactor);
this.accessOrder = accessOrder;
}
//利用另一个Map 来构建,
public LinkedHashMap(Map<? extends K, ? extends V> m) {
super();
accessOrder = false;
//该方法上文分析过,批量插入一个map中的所有数据到 本集合中。
putMapEntries(m, false);
}
构造函数和HashMap
相比,就是增加了一个accessOrder
参数。用于控制迭代时的节点顺序。
新增节点
LinkedHashMap
并没有重写任何put方法。但是其重写了构建新节点的newNode()
方法. newNode()
会在HashMap
的putVal()
方法里被调用,putVal()
方法会在批量插入数据putMapEntries(Map<? extends K, ? extends V> m, boolean evict)
或者插入单个数据public V put(K key, V value)
时被调用。
LinkedHashMap
重写了newNode()
,在每次构建新节点时,通过linkNodeLast(p);
将新节点链接在内部双向链表的尾部。
//在构建新节点时,构建的是`LinkedHashMap.Entry` 不再是`Node`.
Node<K,V> newNode(int hash, K key, V value, Node<K,V> e) {
LinkedHashMap.Entry<K,V> p =
new LinkedHashMap.Entry<K,V>(hash, key, value, e);
linkNodeLast(p);
return p;
}
//将新增的节点,连接在链表的尾部
private void linkNodeLast(LinkedHashMap.Entry<K,V> p) {
LinkedHashMap.Entry<K,V> last = tail;
tail = p;
//集合之前是空的
if (last == null)
head = p;
else {//将新节点连接在链表的尾部
p.before = last;
last.after = p;
}
}
删除节点
LinkedHashMap
也没有重写remove()
方法,因为它的删除逻辑和HashMap
并无区别。
但它重写了afterNodeRemoval()
这个回调方法。该方法会在Node<K,V> removeNode(int hash, Object key, Object value,
方法中回调,
boolean matchValue, boolean movable)removeNode()
会在所有涉及到删除节点的方法中被调用,上文分析过,是删除节点操作的真正执行者。
//在删除节点e时,同步将e从双向链表上删除
void afterNodeRemoval(Node<K,V> e) { // unlink
LinkedHashMap.Entry<K,V> p =
(LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;
//待删除节点 p 的前置后置节点都置空
p.before = p.after = null;
//如果前置节点是null,则现在的头结点应该是后置节点a
if (b == null)
head = a;
else//否则将前置节点b的后置节点指向a
b.after = a;
//同理如果后置节点时null ,则尾节点应是b
if (a == null)
tail = b;
else//否则更新后置节点a的前置节点为b
a.before = b;
}
查询
LinkedHashMap
重写了get()和getOrDefault()
方法:
public V get(Object key) {
Node<K,V> e;
if ((e = getNode(hash(key), key)) == null)
return null;
if (accessOrder)
afterNodeAccess(e);
return e.value;
}
public V getOrDefault(Object key, V defaultValue) {
Node<K,V> e;
if ((e = getNode(hash(key), key)) == null)
return defaultValue;
if (accessOrder)
afterNodeAccess(e);
return e.value;
}
总结
LinkedHashMap
相对于HashMap
的源码比,是很简单的。因为大树底下好乘凉。它继承了HashMap
,仅重写了几个方法,以改变它迭代遍历时的顺序。这也是其与HashMap
相比最大的不同。
在每次插入数据,或者访问、修改数据时,会增加节点、或调整链表的节点顺序。以决定迭代时输出的顺序。
accessOrder
,默认是false,则迭代时输出的顺序是插入节点的顺序。若为true,则输出的顺序是按照访问节点的顺序。为true时,可以在这基础之上构建一个LruCache
.LinkedHashMap
并没有重写任何put方法。但是其重写了构建新节点的newNode()
方法.在每次构建新节点时,将新节点链接在内部双向链表的尾部accessOrder=true
的模式下,在afterNodeAccess()
函数中,会将当前被访问到的节点e,移动至内部的双向链表的尾部。值得注意的是,afterNodeAccess()
函数中,会修改modCount
,因此当你正在accessOrder=true
的模式下,迭代LinkedHashMap
时,如果同时查询访问数据,也会导致fail-fast
,因为迭代的顺序已经改变。nextNode()
就是迭代器里的next()
方法 。
该方法的实现可以看出,迭代LinkedHashMap
,就是从内部维护的双链表的表头开始循环输出。
而双链表节点的顺序在LinkedHashMap
的增、删、改、查时都会更新。以满足按照插入顺序输出,还是访问顺序输出。- 它与
HashMap
比,还有一个小小的优化,重写了containsValue()
方法,直接遍历内部链表去比对value值是否相等。