众所周知,LinkedHashMap继承自HashMap,在原先的HashMap的基础上,它增加了Entry的双向链接。

有意思的是基于这种实现特性,LinkedHashMap 在迭代遍历时,取得键值对的顺序的依据是其插入次序或者是最近最少使用(LRU)的次序。

LRU算法根据数据的历史访问记录来淘汰数据,其核心思想是“如果数据最近被访问过,那么将来被访问的几率也更高”,从而实现在定量缓存空间下缓存内容的管理,常用于浏览器和移动端各应用等本地缓存管理。

通过access方式创建LinkedHashMap即可实现基本的LRU算法,可看源码中LinkedHashMap的构造函数:

/**
* Constructs an empty <tt>LinkedHashMap</tt> instance with the
* specified initial capacity, load factor and ordering mode.
*
* @param initialCapacity the initial capacity
* @param loadFactor the load factor
* @param accessOrder the ordering mode - <tt>true</tt> for
* access-order, <tt>false</tt> for insertion-order
* @throws IllegalArgumentException if the initial capacity is negative
* or the load factor is nonpositive
*/
public LinkedHashMap(int initialCapacity,
float loadFactor,
boolean accessOrder) {
super(initialCapacity, loadFactor);
this.accessOrder = accessOrder;
}

  查看源码可知,其中LinkedHashMap的取得键值对的顺序是由其构造函数中传入的第三个参数accessOrder决定,当其为false时,即为选用插入次序;为true时,即为选用LRU的次序。

而在我们利用LinkedHashMap实现LRU的关键在于重写下面这个方法

protected boolean removeEldestEntry(Map.Entry<K,V> eldest) {
return false;
}

  下面我就使用LinkedHashMap实现LRU做了两个test。

  第一个test的目的是为了验证LinkedHashMap实现LRU的可行性,即其根据访问时间来管理内部元素的排序,具体实现如下:

import java.util.Iterator;
import java.util.LinkedHashMap;
import java.util.Map; public class Test { public static void main(String[] args) { Map<Integer,Integer> map = new LinkedHashMap<>(16,0.75f,true);
for(int i=0;i<16;i++)
map.put(i, i);
for(Iterator<Map.Entry<Integer, Integer>> iterator=map.entrySet().iterator();iterator.hasNext();) {
System.out.print(iterator.next().getKey()+" ");
}
System.out.println();
map.get(5);
for(Iterator<Map.Entry<Integer, Integer>> iterator=map.entrySet().iterator();iterator.hasNext();) {
System.out.print(iterator.next().getKey()+" ");
}
} } 

输出情况如下:

可见访问过的5确实被放到链表的末尾。

第二个test即是一个简单的实现LRU功能的LinkedHashMap,直接贴代码:

import java.util.Iterator;
import java.util.LinkedHashMap;
import java.util.Map; class LRULinkedHashMap<K,V> extends LinkedHashMap<K,V>{
private int capacity;
private static final long serialVersionUID=1L;
/**
* LRULinkedHashMap的含参构造器
* @param capacity 指定的缓存最大容量
*/
LRULinkedHashMap(int capacity){
super(16,0.75f,true);
this.capacity=capacity;
} @Override
/**
* 当map中存储元素大于了最大缓存容量时,删除链表顶端元素即最近最少使用元素。
* 输出当前最少使用的元素的键值对
*/
protected boolean removeEldestEntry(java.util.Map.Entry<K, V> eldest) {
// TODO 自动生成的方法存根
System.out.println("("+eldest.getKey()+","+eldest.getValue()+")");
return size()>capacity;
} } public class LinkedHashMapForLRU {
public static void main(String[] args) {
Map<Integer, Integer> map = new LRULinkedHashMap<Integer,Integer>(5);
//存入7个键值对
for(int i=0;i<7;i++)
map.put(i, i);
//输出最后保存在缓存中的键值对
for(Iterator<Map.Entry<Integer,Integer>> it = map.entrySet().iterator();it.hasNext();) {
System.out.print(it.next().getKey()+" ");
} }
}

输出情况如下:

可见我们实现的LRULinkedHashMap确实发挥了它的作用。

那LinkedHashMap在源码中是怎么实现LRU算法的呢?

接下来从Map的初始化构造、put、get这三个方面结合源码展开

初始化构造函数:

初始化构造在前面已经提到过,这里直接贴上LinkedHashMap的几个构造函数

public LinkedHashMap() {
super();
accessOrder = false;
}

  构造一个以插入顺序排序的空LinkedHashMap,,其默认初始容量为16,并且负载系数为0.75

public LinkedHashMap(int initialCapacity) {
super(initialCapacity);
accessOrder = false;
}

  构造一个以插入顺序排序的空LinkedHashMap,,其负载系数为0.75,根据传入的参数参数决定其初始容量

 public LinkedHashMap(int initialCapacity, float loadFactor) {
super(initialCapacity, loadFactor);
accessOrder = false;
}

  构建一个以插入顺序排序的空LinkedHashMap,根据传入的参数决定其初始容量和负载系数。

 public LinkedHashMap(int initialCapacity,
float loadFactor,
boolean accessOrder) {
super(initialCapacity, loadFactor);
this.accessOrder = accessOrder;
}

  构建一个空LinkedHashMap,根据传入的参数决定其初始容量、负载系统及排序方式。

public LinkedHashMap(Map<? extends K, ? extends V> m) {
super();
accessOrder = false;
putMapEntries(m, false);
}

  而最后这种构造函数则是构建一个指定Map的LinkedHashMap,默认负载系统为0.75,而初始容量则足够容纳指定的Map。

Put:

通过查看源码发现LinkedHashMap并没有重写父类HashMap的put方法,下面我们先看一下HashMap的put方法。

public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}

  发现它调用了putVal(hash(key), key, value, false, true),下面的即是其调用的putVal方法:

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}

其中调用了两个关键的方法

 void afterNodeAccess(Node<K,V> p)和 void afterNodeInsertion(boolean evict),而这两个方法实现关于插入节点和节点访问的细节,
void afterNodeInsertion(boolean evict) { // possibly remove eldest
LinkedHashMap.Entry<K,V> first;
if (evict && (first = head) != null && removeEldestEntry(first)) {
K key = first.key;
removeNode(hash(key), key, null, false, true);
}
}
 void afterNodeAccess(Node<K,V> e) { // move node to last
LinkedHashMap.Entry<K,V> last;
if (accessOrder && (last = tail) != e) {
LinkedHashMap.Entry<K,V> p =
(LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;
p.after = null;
if (b == null)
head = a;
else
b.after = a;
if (a != null)
a.before = b;
else
last = b;
if (last == null)
head = p;
else {
p.before = last;
last.after = p;
}
tail = p;
++modCount;
}
}

从   if (evict && (first = head) != null && removeEldestEntry(first))  ,我们就能看到了调用了  removeEldestEntry(first)。即当该方法返回为真时,会调用方法来删除链表头。

而另一个重要的方法afterNodeAccess()则完成了在每一次节点访问后节点顺序的管理,想必这个方法会在get()方法中得到调用,下面我们就来看一下get()方法。

get():

LinkedHashMap重写了get()方法和getOrDefault()方法。

public V get(Object key) {
Node<K,V> e;
if ((e = getNode(hash(key), key)) == null)
return null;
if (accessOrder)
afterNodeAccess(e);
return e.value;
}
 public V getOrDefault(Object key, V defaultValue) {
Node<K,V> e;
if ((e = getNode(hash(key), key)) == null)
return defaultValue;
if (accessOrder)
afterNodeAccess(e);
return e.value;
}

对比HashMap中的get()

public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}

这里添加了对accessOrder的判断,即当为LRU模式下,会调用afterNodeAccess();这个方法会管理链表的排序,将最近访问过的结点放到链表末尾。

到这里我们应该基本上理清了LinkedHashMap对LRU算法的支持的实现手段。

即通过构造函数中的accessOrder参数来选择建Map模式,通过 afterNodeAccess(Node<K,V> p)在结点被访问后的顺序管理,

afterNodeInsertion(boolean evict)方法实现结点插入后,根据removeEldestEntry(first)的返回结果来进行结点的删除操作。

后记:

当然直接继承LinkedHashMap来实现LRU,在多线程环境下极有可能会出现问题,因为LinkedHashMap不是一个线程安全的容器,所以如果我们想要基于这种容器实现并发环境下的LRU的话,需要增加线程同步的处理。

其中一种处理方式是调用Collections.synchronizedMap()。

而另外一种方法不通过继承来重写LinkedHashMap,而是通过组合的方式实现,并且对map的get()、put()、remove()、size()等操作进行加锁(synchronized),或者在此基础上进行同步上的优化。

LinkedHashMap:我还能实现LRU的更多相关文章

  1. 使用LinkedHashMap来实现一个使用LRU(Least Recently Used)算法的cache

    removeEldestEntry在使用put或者putAll方法插入一个新的entry到map中时被调用,是否要删除年老的entry取决于是否满足既定的条件(比如本例中的条件:MAP中entry数量 ...

  2. Java集合详解5:深入理解LinkedHashMap和LRU缓存

    今天我们来深入探索一下LinkedHashMap的底层原理,并且使用linkedhashmap来实现LRU缓存. 摘要: HashMap和双向链表合二为一即是LinkedHashMap.所谓Linke ...

  3. LinkedHashMap实现LRU缓存算法

    LinkedHashMap的get()方法除了返回元素之外还可以把被访问的元素放到链表的底端,这样一来每次顶端的元素就是remove的元素. 构造函数如下: public LinkedHashMap  ...

  4. LinkedHashMap结构get和put源码流程简析及LRU应用

    原理这篇讲得比较透彻Java集合之LinkedHashMap. 本文属于源码阅读笔记,因put,get调用逻辑及链表维护逻辑复杂(至少网上其它文章的逻辑描述及配图,我都没看明白LinkedHashMa ...

  5. LinkedHashMap实现和LRU

    HashMap是Java中叫法,在Python中就叫Dict 在Python的标准库中实现了LinkedHashMap,它的名字叫OrderedDict,它的源码比较简单,OrderedDict继承了 ...

  6. Java集合系列[4]----LinkedHashMap源码分析

    这篇文章我们开始分析LinkedHashMap的源码,LinkedHashMap继承了HashMap,也就是说LinkedHashMap是在HashMap的基础上扩展而来的,因此在看LinkedHas ...

  7. 精进之路之lru

    原理 LRU(Least recently used,最近最少使用)算法根据数据的历史访问记录来进行淘汰数据,其核心思想是“如果数据最近被访问过,那么将来被访问的几率也更高”. 实现1 最常见的实现是 ...

  8. 彻头彻尾理解 LinkedHashMap

    HashMap和双向链表合二为一即是LinkedHashMap.所谓LinkedHashMap,其落脚点在HashMap,因此更准确地说,它是一个将所有Entry节点链入一个双向链表的HashMap. ...

  9. 《吊打面试官》系列-Redis哨兵、持久化、主从、手撕LRU

    你知道的越多,你不知道的越多 点赞再看,养成习惯 前言 Redis在互联网技术存储方面使用如此广泛,几乎所有的后端技术面试官都要在Redis的使用和原理方面对小伙伴们进行360°的刁难.作为一个在互联 ...

随机推荐

  1. 记一次搭建SS服务器,完整的过程。

    前言 这几天为了登录外网查询资料,谷歌经常抽风,国外的博客也打不开,都要整崩溃了.我以前(直到昨天以前)都是使用修改hosts来访问外网的,用的是 老D(https://laod.cn/hosts)  ...

  2. oracle删除字段中的空格、回车及指定字符

    create or replace procedure PROC_test is --Description:删除字段中的指定字符(回车chr(13).换行chr(10)) --By LiChao - ...

  3. sql 语句写的行列转换

    以前面试老遇到一个行列转换的问题,今天没事,顺便记录一下 假设有这样一张表,如下图,创建表就不说了,直接建或者SQL语句都行 sql语句如下 --第一种 select name as 姓名, max( ...

  4. .Net EF框架的增删改查

    创建上下文对象: WordBoradEntities db = new WordBoradEntities(); 添加: //1.1创建实体对象 User uObj = new User() { uN ...

  5. 【G】开源的分布式部署解决方案文档 - Web Deploy

    G.系列导航 [G]开源的分布式部署解决方案 - 导航 微软官方部署方式 右键项目->发布 这个大家应该再熟悉不过,在部署前有个预览界面可以看本次更新到底更新哪些文件. 既然它可以预览部署结果, ...

  6. 数字图像处理(MATLAB版)学习笔记(1)——第1章 绪言

    0.下定决心 当当入手数字图像处理一本,从此开此正式跨入数字图像处理大门.以前虽然多多少少接触过这些东西,也做过一些相关的事情,但感觉都不够系统,也不够专业,从今天开始,一步一步地学习下去,相信会有成 ...

  7. Angular2入门-数据绑定

    ▓▓▓▓▓▓ 大致介绍 Angular2中数据绑定的方式默认是以单向方式,数据绑定的方式可以分为: 1.属性绑定和插值表达式 组件类-> 模板 2.事件绑定:模板 -> 组件类 3.双向绑 ...

  8. asp.net core源码飘香:Logging组件

    简介: 作为基础组件,日志组件被其他组件和中间件所使用,它提供了一个统一的编程模型,即不需要知道日志最终记录到哪里去,只需要调用它即可. 使用方法很简单,通过依赖注入ILogFactory(Creat ...

  9. MongoDB基础教程系列--第八篇 MongoDB 副本集实现复制功能

    为什么用复制 为什么要使用复制呢?如果我们的数据库只存在于一台服务器,若这台服务器宕机了,那对于我们数据将会是灾难,当然这只是其中一个原因,若数据量非常大,读写操作势必会影响数据库的性能,这时候复制就 ...

  10. 初学grunt压缩

    初学grunt 压缩,做个记录.备忘. [JS压缩] 先比较yui compressor 与 uglify  代码压缩, yui compressor,使用起来很简单.需要jdk. https://g ...