介绍

该实现与HashMap不同的是它维护一个双向链表,可以使HashMap有序。与HashMap一样,该类不安全。

结构

和HashMap的结构非常相似,只不过LinkedHashMap是一个双向链表

LinkedHashMap 分为两种节点 EntryTreeNode节点

Entry节点结构:

class Entry<K,V> extends HashMap.Node<K,V> {
Entry<K,V> before, after;
Entry(int hash, K key, V value, Node<K,V> next) {
super(hash, key, value, next);
}
}

beforeafter 是双向链表中的前继和后继节点

TreeNode节点和HashMap中的一样

从这里能看出LinkedHashMap是一个双向链表


LinkedHashMap 有如下属性:

transient LinkedHashMap.Entry<K,V> head;
transient LinkedHashMap.Entry<K,V> tail;
final boolean accessOrder;

headtail很好理解就是双向链表的头和尾

HashMap中没有accessOrder这个字段,这也是与HashMap最不同的地方,该类有两种取值分别代表不同的意思 :

  • true,按照访问顺序排序
  • false,按照插入顺序排序

HashMap预留的一些方法

HashMap 预留了一些方法提供给 LinkedHashMap 使用

// LinkedHashMap重写了以下四个方法来保证双向队列能够正常工作
// 创建一个Node节点
Node<K,V> newNode(int hash, K key, V value, Node<K,V> next){...}
// 创建树节点
TreeNode<K,V> newTreeNode(int hash, K key, V value, Node<K,V> next) {...}
// 树节点和普通节点相互转换
Node<K,V> replacementNode(Node<K,V> p, Node<K,V> next) {...}
TreeNode<K,V> replacementTreeNode(Node<K,V> p, Node<K,V> next) {...} // HashMap未实现,留给LinkedHashMap实现
// 后置处理
// 访问节点后如何处理
void afterNodeAccess(Node<K,V> p) { }
// 插入节点后如何处理
void afterNodeInsertion(boolean evict) { }
// 移除节点后如何处理
void afterNodeRemoval(Node<K,V> p) { }

afterNodeAccessafterNodeInsertionafterNodeRemoval 这三个方法保证了LinkedHashMap有序,分别会在getputremove 后调用

putremove 都对顺序没有影响,因为在操作的时候已经调整好了(put放在)。但是get是对顺序有影响的(被访问到了),所以需要重写该方法:

public V get(Object key) {
Node<K,V> e;
// 获取节点
if ((e = getNode(hash(key), key)) == null)
return null;
// 改变顺序
if (accessOrder)
afterNodeAccess(e);
return e.value;
}

通过afterNodeAccess来改变该节点(P)的顺序,该方法分为一下几步:

  1. 拆除需要移动的节点P
  2. 处理前置节点,前置节点有两种情况
    1. 前置节点为空,表示P为头节点
    2. 前置节点不为空,表示P为中间节点
  3. 处理后置节点
    1. 后置节点为空,表示P为尾节点
    2. 后置节点不为空,表示P为中间节点
  4. 将该节点移动到tail
void afterNodeAccess(Node<K,V> e) { // move node to last
LinkedHashMap.Entry<K,V> last;
if (accessOrder && (last = tail) != e) {
LinkedHashMap.Entry<K,V> p =
(LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;
p.after = null;
if (b == null)
head = a;
else
b.after = a;
if (a != null)
a.before = b;
else
last = b;
if (last == null)
head = p;
else {
p.before = last;
last.after = p;
}
tail = p;
++modCount;
}
}

afterNodeInsertion 则在putVal中调用

基本逻辑是如果参数为true则尝试删除头节点,但是还需要满足头节点是最'老'的,具体的与removeEldestEntry配合使用,可以继承LinkedHashMap并定制, LinkedHashMap是恒为false的。

protected boolean removeEldestEntry(Map.Entry<K,V> eldest) {
return false;
}

如果所有条件都满足则删除头节点

void afterNodeInsertion(boolean evict) { // possibly remove eldest
LinkedHashMap.Entry<K,V> first;
if (evict && (first = head) != null && removeEldestEntry(first)) {
K key = first.key;
removeNode(hash(key), key, null, false, true);
}
}

afterNodeRemoval则在removeNode成功删除节点之后调用:

用来保证在双向链表中删除一个节点仍然能够使结构不被破坏

为被删除节点的头和尾节点建立联系:

void afterNodeRemoval(Node<K,V> e) { // unlink
LinkedHashMap.Entry<K,V> p =
(LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;
p.before = p.after = null;
if (b == null)
head = a;
else
b.after = a;
if (a == null)
tail = b;
else
a.before = b;
}

应用

实现LRU

LRU是一种缓存置换机制,LRU (Least Recently Used)将最近最少使用的内容替换掉。实现非常简单,每次访问某个元素,就将这个元素浮动到栈顶。这样最靠近栈顶的页面就是最近经常访问的,而被压在栈底的就是最近最少使用的,只需要删除栈底的元素。

LinkedHashMap非常方便实现LRU,LinkedHashMapput操作时同时会判断是否需要删除最'老'的元素。只需要重写removeEldestEntry方法,使得超过容量就删除最'老'的元素。

下面是具体实现:

public class LRU<K, V> extends LinkedHashMap<K, V> {  

    /**
* 最大容量
* <p>
* Note: 用位运算就不需要将十进制转换为二进制,直接就为二进制。
*/
private final int MAX_CAPACITY = 1 << 30; /**
* 缓存的容量
*/
private int capacity; public LRU(int capacity) {
this(true, capacity);
} public LRU(boolean accessOrder, int capacity) {
this(1 << 4, 0.75f, accessOrder, capacity);
} public LRU(int initialCapacity, float loadFactor, boolean accessOrder, int capacity) {
super(initialCapacity, loadFactor, accessOrder);
this.capacity = capacity;
}
}

测试:

	LRU<Integer, Integer> lru = new LRU<Integer, Integer>(10);
for (int i = 0; i < 10; i++) {
lru.put(i, i * i);
System.out.println("put: (" + i + "," + i * i + ")");
int randomKey = (int) (Math.random() * i);
System.out.println("get "+randomKey+": " + lru.get(randomKey));
System.out.println("head->"+lru+"<-tail");
}

结果:

put: (0,0)
get 0: 0
head->{0=0}<-tail
---------------
put: (1,1)
get 0: 0
head->{1=1, 0=0}<-tail
---------------
put: (2,4)
get 1: 1
head->{0=0, 2=4, 1=1}<-tail
---------------

分析 java.util.LinkedHashMap的更多相关文章

  1. java.util.HashSet, java.util.LinkedHashMap, java.util.IdentityHashMap 源码阅读 (JDK 1.8)

    一.java.util.HashSet 1.1 HashSet集成结构 1.2 java.util.HashSet属性 private transient HashMap<E,Object> ...

  2. JDK1.8源码(九)——java.util.LinkedHashMap 类

    前面我们介绍了 Map 集合的一种典型实现 HashMap ,关于 HashMap 的特性,我们再来复习一遍: ①.基于JDK1.8的HashMap是由数组+链表+红黑树组成,相对于早期版本的 JDK ...

  3. java.util.LinkedHashMap cannot be cast to xxx 和 net.sf.ezmorph.bean.MorphDynaBean cannot be cast to xxx

    java.util.LinkedHashMap cannot be cast to com.entity.Person 使用mybatis, resultMap映射的是实体类Person, 查询出来的 ...

  4. java.util.HashSet, java.util.LinkedHashMap, java.util.IdentityHashMap 源码阅读 (JDK 1.8.0_111)

    一.java.util.HashSet 1.1 HashSet集成结构 1.2 java.util.HashSet属性 private transient HashMap<E,Object> ...

  5. java.util.LinkedHashMap cannot be cast to

    Jackson转换泛型List出现错误java.util.LinkedHashMap cannot be cast to com.xxx ObjectMapper mapper = new Objec ...

  6. 2019-8-26 LinkedHashMap 转 List [java.util.LinkedHashMap cannot be cast to com.zq.dataservice.bean.Index]

    java.util.LinkedHashMap cannot be cast to com.zq.dataservice.bean.Index 上述错误是在做一个趋势投资demo时遇到的. 说的是链式 ...

  7. Mybatis按照SQL查询字段的顺序返回查询结果,使用resultType="java.util.LinkedHashMap"

    在使用Mybatis开发时,Mybatis返回的结果集就是个map,当返回map时只需要做好SQL映射就好了,减少了代码量,简单便捷,缺点是不太方便维护,但是写大量的vo类去返回也挺累的,这个看你个人 ...

  8. Redis获取缓存异常:java.lang.ClassCastException: java.util.LinkedHashMap cannot be cast to XXX

    Redis获取缓存异常:java.lang.ClassCastException: java.util.LinkedHashMap cannot be cast to XXX. 出现这种异常,我需要自 ...

  9. 谈论高并发(十二)分析java.util.concurrent.atomic.AtomicStampedReference看看如何解决源代码CAS的ABA问题

    于谈论高并发(十一)几个自旋锁的实现(五岁以下儿童)中使用了java.util.concurrent.atomic.AtomicStampedReference原子变量指向工作队列的队尾,为何使用At ...

随机推荐

  1. css自定义省略实例2

    <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8&quo ...

  2. 并查集——以nuist OJ P1648炼丹术为例

    并查集 定义:并查集是一种树形的数据结构,用于处理一些不相交集合的合并及查询问题 主要构成: 并查集主要由一个整型数组pre[]和两个函数find().join()构成. 数组pre[]记录了每个点的 ...

  3. 标注工具doccano导出数据为空的解决办法

    地址:https://github.com/taishan1994/doccano_export doccano_export 使用doccano标注工具同时导出实体和关系数据为空的解决办法.docc ...

  4. 106_Power Pivot之HR入离调转、在职、离职率相关指标

    博客:www.jiaopengzi.com 焦棚子的文章目录 请点击下载附件 一.背景 之前有帮公司HR做了些员工入离调转.在职.人工成本分析等(体量:4000人左右).在和其他朋友交流的时候得知,貌 ...

  5. 103_Power Pivot 透视表中空白标签处理及百分比

    焦棚子的文章目录 请点击下载附件 1.案例来源于不断变化的需求 事实表:销售表 维度表:城市表 销售表和城市建立多对一的关系 如图1: 图1 2.插入透视表 如图2: 图2 3.问题 1.销售表中,城 ...

  6. Fail2ban 配置详解 基础配置(fail2ban.conf)

    [Definition] loglevel = INFO # 设置日志级别:级别越低显示日志的信息更详细. # CRITICAL - 关键级别 # ERROR - 错误级别 # WARNING - 警 ...

  7. Python 微博搜索爬虫

    微博搜索爬虫 网页分析 由于网页端反爬虫机制比较完善所以才去移动端进行爬虫. url地址:https://m.weibo.cn/ 搜索框,输入关键词进行搜索 对网页进行抓包,找到相关数据 查看数据是否 ...

  8. Python Flask项目步骤

    构建flask项目步骤 步骤一:构建基础项目框架 创建manage.py文件 from flask import Flask app = Flask(__name__) ""&qu ...

  9. Ceph集群搭建记录

    环境准备 基础环境 node00 192.168.247.144 node00 node01 192.168.247.135 node01 node02 192.168.247.143 node02 ...

  10. CabloyJS实现了一款基于X6的工作流可视化编辑器

    介绍 文档演示:CMS审批工作流演示了如何通过JSON来直接创建一个工作流定义,通常用于为具体的业务数据生成预定义或内置审批工作流的场景 CabloyJS 4.8.0采用X6 图编辑引擎实现了一款工作 ...