一、前言

乍眼一看会怀疑或者问LinkedHashMap与HashMap有什么区别? 它有什么与众不同之处?  由于前面已经有两篇文章分析了HashMap,今天就看看LinkedHashMap。(基于JDK8)

二、结构属性分析

1、继承关系

public class LinkedHashMap<K,V> extends HashMap<K,V> implements Map<K,V>

LinkedHashMap是HashMap的子类,说明HashMap有的功能LinkedHashMap都有。

2、Entery<K, V> head、tail : 双向链表

/**
* The head (eldest) of the doubly linked list.
*/
transient LinkedHashMap.Entry<K,V> head; /**
* The tail (youngest) of the doubly linked list.
*/
transient LinkedHashMap.Entry<K,V> tail; // Entry没什么特别之处,都是调用父类创建节点的。
static class Entry<K,V> extends HashMap.Node<K,V> {
Entry<K,V> before, after;
Entry(int hash, K key, V value, Node<K,V> next) {
super(hash, key, value, next);
}
}

3、accessOrder:如果为true,则表示访问有序(新访问的数据会被移至到链尾)。如果为false,表示插入有序。

/**
* The iteration ordering method for this linked hash map: <tt>true</tt>
* for access-order, <tt>false</tt> for insertion-order.
* @serial
*/
private final boolean accessOrder;

这个字段的默认的值是false, 可以从构造函数中看出, 当然也可以指定。如下:

public LinkedHashMap() {
super();
accessOrder = false;
}
// 指定accessOrder
public LinkedHashMap(int initialCapacity, float loadFactor, boolean accessOrder) {
super(initialCapacity, loadFactor);
this.accessOrder = accessOrder;
}

那么什么是插入有序和访问有序呢?都知道在HashMap中是插入或者访问都是无序的。下面我们先通过实例看下这两种情况的效果:

/**
* 验证插入有序
*/
@Test
public void test_accessOrder_false() {
// accessOrder 默认为false,表示插入有序
Map<String, String> map = new LinkedHashMap<>();
map.put("玉树临枫", "本文作者");
map.put("Andy", "刘德华");
map.put("eson", "陈奕迅");
map.put("张三", "张三"); for(Map.Entry<String, String> entry : map.entrySet()) {
System.out.println("key:" + entry.getKey());
}
}

output: 看下面输出结果,从而知道插入有序表示插入的时间顺序,跟队列的插入顺序一样:先进先出。(如果是HashMap输出是乱序的。)

key:玉树临枫, value:本文作者
key:Andy, value:刘德华
key:eson, value:陈奕迅
key:张三, value:张三

接下来看下访问有序是什么样的:

/**
* 测试访问有序
*/
@Test
public void test_accessOrder_true() {
// 指定accessOrder = true
Map<String, String> map = new LinkedHashMap<>(10, 0.75f, true);
map.put("玉树临枫", "本文作者");
map.put("Andy", "刘德华");
map.put("eson", "陈奕迅");
map.put("阅读本文的你", "感谢你的支持"); for(Map.Entry<String, String> entry : map.entrySet()) {
System.out.println("key:" + entry.getKey() + ", value:" + entry.getValue());
}
System.out.println("---------对Andy进行了采访-------------");
map.get("Andy");
for(Map.Entry<String, String> entry : map.entrySet()) {
System.out.println("key:" + entry.getKey() + ", value:" + entry.getValue());
}
System.out.println("--------------添加一位成员----------------");
map.put("James", "23");
for(Map.Entry<String, String> entry : map.entrySet()) {
System.out.println("key:" + entry.getKey() + ", value:" + entry.getValue());
}
}

output: 通过结果可以看出,不过是put操作还是get操作,都会将当前元素移至到链尾。

key:玉树临枫, value:本文作者
key:Andy, value:刘德华
key:eson, value:陈奕迅
key:阅读本文的你, value:感谢你的支持
---------对Andy进行了采访-------------
key:玉树临枫, value:本文作者
key:eson, value:陈奕迅
key:阅读本文的你, value:感谢你的支持
key:Andy, value:刘德华
--------------添加一位成员----------------
key:玉树临枫, value:本文作者
key:eson, value:陈奕迅
key:阅读本文的你, value:感谢你的支持
key:Andy, value:刘德华
key:James, value:23

好奇的朋友肯定想知道它是怎样做到这样的特性, 还是得从源码角度去看看。

三、重要函数分析

1、put函数

其实这个函数我们已经在上篇已经分析过了,那么为什么还来看呢? 因为LinkedHashMap是HashMap的子类啊,这些都是继承使用的。但有没有发现其中有什么需要注意的呢? 再次看下put函数的源码加深下印象。

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// table为空,则通过扩容来创建,后面在看扩容函数
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 根据key的hash值 与 数组长度进行取模来得到数组索引
if ((p = tab[i = (n - 1) & hash]) == null)
// 空链表,创建节点
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 不为空,则判断是否与当前节点一样,一样就进行覆盖
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
// 不存在重复节点,则判断是否属于树节点,如果属于树节点,则通过树的特性去添加节点
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 该链为链表
for (int binCount = 0; ; ++binCount) {
// 当链表遍历到尾节点时,则插入到最后 -> 尾插法
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 检测是否该从链表变成树(注意:这里是先插入节点,没有增加binCount,所以判断条件是大于等于阈值-1)
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
// 满足则树形化
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
} // 存在相同的key, 则替换value
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
// 注意这里,这里是供子类LinkedHashMap实现
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 注意细节:先加入节点,再加长度与阈值进行判断,是否需要扩容。
if (++size > threshold)
resize();
// 注意这里,这里是供子类LinkedHashMap实现
afterNodeInsertion(evict);
return null;
}

注意上面逻辑:

  • 每次插入都会调用newNode函数创建一个新节点,对于LinkeHashMap来说有重写该函数。
  • 当存在相同key替换value后,会调用afterNodeAccess函数,这函数在HashMap中是没有任何实现的,主要是供子类LinkeHashMap来实现。
// Callbacks to allow LinkedHashMap post-actions
void afterNodeAccess(Node<K,V> p) { }
  • 当扩容完后,会调用afterNodeInsertion函数,同理这个函数也是供子类LinkeHashMap来实现的。
void afterNodeInsertion(boolean evict) { }

2、newNode()函数

我们看看LinkedHashMap中的newNode()函数的实现,看看多了些什么功能有什么作用。

Node<K,V> newNode(int hash, K key, V value, Node<K,V> e) {
// 调用父类创建节点, 没什么区别。
LinkedHashMap.Entry<K,V> p =
new LinkedHashMap.Entry<K,V>(hash, key, value, e);
// 新加的方法
linkNodeLast(p);
return p;
}
private void linkNodeLast(LinkedHashMap.Entry<K,V> p) {
LinkedHashMap.Entry<K,V> last = tail;
tail = p;
// 如果双向链表为空,则当前节点是第一个节点
if (last == null)
head = p;
else {
// 将新创建的节点添加至双向链表的尾部。
p.before = last;
last.after = p;
}
}

从上面看来, LinkedHashMap不仅拥有HashMap的结构和功能,还额外的维护了一套双向链表。另外其插入动作的顺序也知道了:
put() -> putVal() -> newNode() -> linkNodeLast

3、afterNodeAccess函数

void afterNodeAccess(Node<K,V> e) { // move node to last
LinkedHashMap.Entry<K,V> last;
// 如果accessOrder=true,即访问有序,且双向链表不止一个节点的时候,进行下面操作:
if (accessOrder && (last = tail) != e) {
LinkedHashMap.Entry<K,V> p =
(LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;
// 将p的后置指针置为null
p.after = null;
// 如果e的前置指针没有元素, 则直接将双向链表的头节点指向它。
if (b == null)
head = a;
else
// e的前置指针存在元素, 则将e的前置指针指向节点的后置指针指向其后置指针指向的的节点。
b.after = a;
// e的后置指针存在元素, 则将e的后置指针指向节点的前置指针指向e前置指针指向的节点
if (a != null)
a.before = b;
else
// 否则将尾节点指向e的前置节点
last = b;
// 上面步骤主要是将e节点从链表中移除,然后添加到链表尾部
if (last == null)
head = p;
else {
// 添加置链表尾部
p.before = last;
last.after = p;
}
tail = p;
++modCount;
}
}

从上面函数分析可以看出来,当访问到双向链表存在的值时,如果开启访问有序的开关,则会将访问到的节点移至到双向链表的尾部。另外get函数也会调用这个函数,所以从源码的角度去看问题很清晰。

public V get(Object key) {
Node<K,V> e;
if ((e = getNode(hash(key), key)) == null)
return null;
// 如果存在节点且开启了访问有序的开关,则会将当前节点移至双向链表尾部
if (accessOrder)
afterNodeAccess(e);
return e.value;
}

4、afterNodeInsertion函数

该函数表示是否需要删除最年长的节点

void afterNodeInsertion(boolean evict) { // possibly remove eldest
LinkedHashMap.Entry<K,V> first;
if (evict && (first = head) != null && removeEldestEntry(first)) {
// 获取头节点:头节点表示最近很久没有访问的元素
K key = first.key;
removeNode(hash(key), key, null, false, true);
}
}
// 返回false, 所以LinkedHashMap不会有删除年长节点的行为,但其子类可以继承重写该函数。
protected boolean removeEldestEntry(Map.Entry<K,V> eldest) {
return false;
}

看这个功能有没有想起和某些功能类似呢?  比如LRUCache : 最近最少使用的缓存淘汰策略

5、Entry下的forEach函数

public final void forEach(Consumer<? super Map.Entry<K,V>> action) {
if (action == null)
throw new NullPointerException();
int mc = modCount;
// 遍历的是双向链表。所以我们看到的就是插入的顺序
for (LinkedHashMap.Entry<K,V> e = head; e != null; e = e.after)
action.accept(e);
if (modCount != mc)
throw new ConcurrentModificationException();
}

四、总结

  1. LinkedHashMap 拥有与 HashMap 相同的底层哈希表结构,即数组 + 单链表 + 红黑树,也拥有相同的扩容机制。
  2. LinkedHashMap 相比 HashMap 的拉链式存储结构,内部额外通过 Entry 维护了一个双向链表。
  3. HashMap 元素的遍历顺序不一定与元素的插入顺序相同,而 LinkedHashMap 则通过遍历双向链表来获取元素,所以遍历顺序在一定条件下等于插入顺序。
  4. LinkedHashMap 可以通过构造参数 accessOrder 来指定双向链表是否在元素被访问后改变其在双向链表中的位置。

LinkedHashMap的特殊之处的更多相关文章

  1. Java学习之LinkedHashMap学习总结

    前言: 在学习LRU算法的时候,看到LruCache源码实现是基于LinkedHashMap,今天学习一下LinkedHashMap的好处以及如何实现lru缓存机制的. 需求背景: LRU这个算法就是 ...

  2. Java集合之LinkedHashMap

    一.初识LinkedHashMap 上篇文章讲了HashMap.HashMap是一种非常常见.非常有用的集合,但在多线程情况下使用不当会有线程安全问题. 大多数情况下,只要不涉及线程安全问题,Map基 ...

  3. HashMap,LinkedHashMap,TreeMap的区别

    Map主要用于存储健值对,根据键得到值,因此不允许键重复(重复了覆盖了),但允许值重复. Hashmap 是一个最常用的Map,它根据键的HashCode 值存储数据,根据键可以直接获取它的值,具有很 ...

  4. HashMap LinkedHashMap源码分析笔记

    MapClassDiagram

  5. LinkedHashMap源码详解

    序言 本来是不打算先讲map的,但是随着对set集合的认识,发现如果不先搞懂各种map,是无法理解set的.因为set集合很多的底层就是用map来存储的.比如HashSet就是用HashMap,Lin ...

  6. LinkedHashMap及其源码分析

    以下内容基于jdk1.7.0_79源码: 什么是LinkedHashMap 继承自HashMap,一个有序的Map接口实现,这里的有序指的是元素可以按插入顺序或访问顺序排列: LinkedHashMa ...

  7. LinkedHashMap的实现原理(复习)

    1. LinkedHashMap概述: LinkedHashMap是Map接口的哈希表和链接列表实现,具有可预知的迭代顺序.此实现提供所有可选的映射操作,并允许使用null值和null键.此类不保证映 ...

  8. LinkedHashMap介绍

    转载:http://uule.iteye.com/blog/1522291 jdk1.7API文档链接:http://tool.oschina.net/apidocs/apidoc?api=jdk_7 ...

  9. LinkedHashMap的实现原理

    1. LinkedHashMap概述: LinkedHashMap是Map接口的哈希表和链接列表实现,具有可预知的迭代顺序.此实现提供所有可选的映射操作,并允许使用null值和null键.此类不保证映 ...

随机推荐

  1. C#反射使用时注意BindingFlags的用法

    c#反射查找方法时,默认只能查到public方法.如果想要查找private方法,需要设定BindingFlags. 即: BindingFlags.Public|BindingFlags.Insta ...

  2. navicat12.0.29破解操作步骤

    navicat12.0.29破解操作步骤 2018年07月11日 22:21:17 xijian0521 阅读数:1620   我的百度网盘地址: 下载点这里 以管理员身份运行 此注册机:  打开注册 ...

  3. 深度残差网络(ResNet)

    引言 对于传统的深度学习网络应用来说,网络越深,所能学到的东西越多.当然收敛速度也就越慢,训练时间越长,然而深度到了一定程度之后就会发现越往深学习率越低的情况,甚至在一些场景下,网络层数越深反而降低了 ...

  4. flume1.9 用户指南(中文版)

    概述 Apache Flume是一个分布式,可靠且可用的系统,用于有效地从许多不同的source收集,聚合和移动大量日志数据到集中式数据存储. Apache Flume的使用不仅限于日志数据聚合.由于 ...

  5. 并发编程-Future+callable+FutureTask 闭锁机制

    项目中经常有些任务需要异步(提交到线程池中)去执行,而主线程往往需要知道异步执行产生的结果,这时我们要怎么做呢?用runnable是无法实现的,我们需要用callable实现. FutureTask ...

  6. iOS组件化开发一远端私有库建立(二)

    公共库业务,基础层划分! 一.构建私有云,本文推荐为码云 1.构建名称为LuckTimeSpec,选择私有建立: 2.Copy地址的https 链接: 二.打开终端 输入: cd /Users/zha ...

  7. [常用命令]Git命令

    取得Git仓库 初始化一个版本仓库 git init Clone远程版本库 git clone https://github.com/yhj167/yhj167.github.io.git 添加远程版 ...

  8. 【风哥干货】快速解决Oracle数据库故障必备的20个脚本与命令

    1.操作系统性能(通常故障出现时最先检查的内容)top.topas.vmstat.iostat.free.nmon 2.万能重启方法 如应急情况,需要重启数据库:tail -100f <对应路径 ...

  9. 网络下载器 迅雷大众版 v7.9.42.5050 精简绿色版

    下载地址:点我 基本介绍 迅雷大众版是一款采用了先进的超线程技术基于网格原理,能够将存在于第三方服务器和计算机上的数据文件进行有效整合,通过这种先进的超线程技术,用户能够以更快的速度从这些第三方节点平 ...

  10. bzoj1052 9.20考试 第二题 覆盖问题

    1052: [HAOI2007]覆盖问题 Time Limit: 10 Sec  Memory Limit: 162 MBSubmit: 2004  Solved: 937[Submit][Statu ...