写一个LRU算法的记录
今天简单记录一下,利用Scala解答的一道LRU题目,原题为LeetCode的第146题,是一道设计LRU的题目。
题目详情
运用你所掌握的数据结构,设计和实现一个 LRU (最近最少使用) 缓存机制。它应该支持以下操作: 获取数据 get 和 写入数据 put 。
获取数据 get(key) - 如果密钥 (key) 存在于缓存中,则获取密钥的值(总是正数),否则返回 -1。
写入数据 put(key, value) - 如果密钥已经存在,则变更其数据值;如果密钥不存在,则插入该组「密钥/数据值」。当缓存容量达到上限时,它应该在写入新数据之前删除最久未使用的数据值,从而为新的数据值留出空间。
进阶:
你是否可以在 O(1) 时间复杂度内完成这两种操作?
示例:
LRUCache cache = new LRUCache( 2 /* 缓存容量 */ );
cache.put(1, 1);
cache.put(2, 2);
cache.get(1); // 返回 1
cache.put(3, 3); // 该操作会使得密钥 2 作废
cache.get(2); // 返回 -1 (未找到)
cache.put(4, 4); // 该操作会使得密钥 1 作废
cache.get(1); // 返回 -1 (未找到)
cache.get(3); // 返回 3
cache.get(4); // 返回 4
解答思路
这道题里,可以立即想到的是借助HashMap以及双向链表构建,更具体的分析可看LeetCode官方分析,在此不做赘述。
我的代码
对于Scala,由于其可以交叉使用Java的数据结构,因此在HashMap的构建部分,我也尝试了分别利用Scala自带的mutable.HashMap,以及Java当中的HashMap进行了比较,具体代码如下:
Scala的mutable.HashMap
import scala.collection.mutable.HashMap
class Node(var _key: Int, var _value: Int) {
var key = _key
var value = _value
var prev: Node = _
var next: Node = _
}
class DoubleLinked() {
var head: Node = new Node(-1, -1)
var tail: Node = new Node(-1, -1)
head.next = tail
tail.prev = head
def addNode(node: Node): Unit = {
head.next.prev = node
node.next = head.next
head.next = node
node.prev = head
}
def updateTail(node: Node): Unit = {
tail.prev = node
node.next = tail
}
}
class LRUCache(_capacity: Int) {
var cache: HashMap[Int, Node] = new HashMap[Int, Node]()
var dLinked = new DoubleLinked()
val capacity: Int = _capacity
def get(key: Int): Int = {
if (!cache.contains(key)) {
return -1
}
updateSurroundings(cache(key))
dLinked.addNode(cache(key))
cache(key).value
}
def put(key: Int, value: Int) {
if (cache.contains(key)) {
val node = cache(key)
node.value = value
updateSurroundings(node)
dLinked.addNode(node)
}
else {
val node = new Node(key, value)
dLinked.addNode(node)
if (dLinked.tail.prev == dLinked.head) {
dLinked.tail.prev=node
node.next=dLinked.tail
}
cache.put(key,node)
if(cache.size>capacity){
cache.remove(dLinked.tail.prev.key)
dLinked.updateTail(dLinked.tail.prev.prev)
dLinked.tail
}
}
}
def updateSurroundings(node: Node): Unit = {
if (node.next == dLinked.tail) {
dLinked.tail.prev = node.prev
}
node.prev.next = node.next
node.next.prev = node.prev
}
}
经提交测试,在LeetCode提交测试结果中,执行用时1628ms,占用内存82.9M
Java的HashMap
import java.util.HashMap
class Node(var _key: Int, var _value: Int) {
var key = _key
var value = _value
var prev: Node = _
var next: Node = _
}
class DoubleLinked() {
var head: Node = new Node(-1, -1)
var tail: Node = new Node(-1, -1)
head.next = tail
tail.prev = head
def addNode(node: Node): Unit = {
head.next.prev = node
node.next = head.next
head.next = node
node.prev = head
}
def updateTail(node: Node): Unit = {
tail.prev = node
node.next = tail
}
}
class LRUCache(_capacity: Int) {
var cache: HashMap[Int, Node] = new HashMap[Int, Node]()
var dLinked = new DoubleLinked()
val capacity: Int = _capacity
def get(key: Int): Int = {
var node:Node = cache.get(key)
if (node == null) {
return -1
}
updateSurroundings(node)
dLinked.addNode(node)
node.value
}
def put(key: Int, value: Int) {
if (cache.get(key)!=null) {
val node = cache.get(key)
node.value = value
updateSurroundings(node)
dLinked.addNode(node)
}
else {
val node = new Node(key, value)
dLinked.addNode(node)
if (dLinked.tail.prev == dLinked.head) {
dLinked.tail.prev=node
node.next=dLinked.tail
}
cache.put(key,node)
if(cache.size>capacity){
cache.remove(dLinked.tail.prev.key)
dLinked.updateTail(dLinked.tail.prev.prev)
dLinked.tail
}
}
}
def updateSurroundings(node: Node): Unit = {
if (node.next == dLinked.tail) {
dLinked.tail.prev = node.prev
}
node.prev.next = node.next
node.next.prev = node.prev
}
}
经提交测试,在LeetCode提交测试结果中,执行用时1456ms,占用内存83.9M
从上述的数据来看,两者运行时的占用内存相近,但是在速度上,使用Java的HashMap版本的代码,运行相对更快,所以有个猜想:如果在Scala代码中,直接使用Java原有的数据结构,是不是也同样会提高Scala代码的运行速度?
希望Scala方面的专家可以解答一下。
写一个LRU算法的记录的更多相关文章
- 面试题目:手写一个LRU算法实现
一.常见的内存淘汰算法 FIFO 先进先出 在这种淘汰算法中,先进⼊缓存的会先被淘汰 命中率很低 LRU Least recently used,最近最少使⽤get 根据数据的历史访问记录来进⾏淘汰 ...
- 搞定redis面试--Redis的过期策略?手写一个LRU?
1 面试题 Redis的过期策略都有哪些?内存淘汰机制都有哪些?手写一下LRU代码实现? 2 考点分析 1)我往redis里写的数据怎么没了? 我们生产环境的redis怎么经常会丢掉一些数据?写进去了 ...
- 【redis前传】自己手写一个LRU策略 | redis淘汰策略
title: 自己手写一个LRU策略 date: 2021-06-18 12:00:30 tags: - [redis] - [lru] categories: - [redis] permalink ...
- 手写一个LRU工具类
LRU概述 LRU算法,即最近最少使用算法.其使用场景非常广泛,像我们日常用的手机的后台应用展示,软件的复制粘贴板等. 本文将基于算法思想手写一个具有LRU算法功能的Java工具类. 结构设计 在插入 ...
- JS 实现一个 LRU 算法
LRU 是 Least Recently Used 的缩写,即最近最少使用,是一种常用的页面置换算法,选择内存中最近最久未使用的页面予以淘汰. 可用的 NodeJS 库见node-lru-cache ...
- 动手写一个LRU缓存
前言 LRU 是 Least Recently Used 的简写,字面意思则是最近最少使用. 通常用于缓存的淘汰策略实现,由于缓存的内存非常宝贵,所以需要根据某种规则来剔除数据保证内存不被占满. 在r ...
- python学习(5)写一个二分算法的程序
把之前学习的做一个小结.之前看二分查找法,只能是似而非地看懂大概.现在用这么多天的知识积累已经可以自己写了. 而且在算法书的基础上,把需要找的数字做一个人机互动操作. 另外,初步接触到了 __name ...
- 4.redis 的过期策略都有哪些?内存淘汰机制都有哪些?手写一下 LRU 代码实现?
作者:中华石杉 面试题 redis 的过期策略都有哪些?内存淘汰机制都有哪些?手写一下 LRU 代码实现? 面试官心理分析 如果你连这个问题都不知道,上来就懵了,回答不出来,那线上你写代码的时候,想当 ...
- GuavaCache学习笔记一:自定义LRU算法的缓存实现
前言 今天在看GuavaCache缓存相关的源码,这里想到先自己手动实现一个LRU算法.于是乎便想到LinkedHashMap和LinkedList+HashMap, 这里仅仅是作为简单的复习一下. ...
随机推荐
- JSON Introduction
理解 JSON(JavaScript Object Notation),一种轻量级的数据交换格式,基于JS的一个子集,但其数据格式与语言无关. 通俗来说,如果你是PHP,要和JS互相发送信息,那么这时 ...
- CF思维联系–CodeForces - 225C. Barcode(二路动态规划)
ACM思维题训练集合 Desciption You've got an n × m pixel picture. Each pixel can be white or black. Your task ...
- CentOS上安装比较习惯的代码编辑器
linux下的vim用起来不是很习惯,可能是能力有限.所以一直在找一种自己比较熟悉的代码编辑器,所以就找到了sublime text,安装方法网上有很多种,比较方便的方法:直接在csdn上下载一个破解 ...
- 老师,你确定Java注释不会被执行吗?
之前在博客上分享过一篇文章,涉及到 Java 中的注释,就信誓旦旦地写了一句话:"注释是不会被执行的!"结果,有小伙伴留言说,"老师,你确定吗?" 我这个人一直 ...
- gVim配置文件分享
前言 直接可以把这个配置覆盖掉现在安装目录Vim底下的"_vimrc"文件 效果图 Code: set number set tabstop=4 set softtabstop=4 ...
- VUE简单整理
在用 Vue.js 构建大型应用时推荐使用 NPM 安装: # 最新稳定版 $ cnpm install vue 命令行工具 Vue.js 提供一个官方命令行工具,可用于快速搭建大型单页应用. # 全 ...
- G. 神圣的 F2 连接着我们 线段树优化建图+最短路
这个题目和之前写的一个线段树优化建图是一样的. B - Legacy CodeForces - 787D 线段树优化建图+dij最短路 基本套路 之前这个题目可以相当于一个模板,直接套用就可以了. 不 ...
- 戴尔服务器ipmi报错
戴尔服务器ipmi配置完成,用浏览器打开报错 查看器已终止,网络已中断 原因:这个问题是java报错,用火狐打开报错 解决方法: 用IE打开就没问题,IE要用较高版本的,楼主的是win10-IE11
- 201771010113 李婷华 《面向java对象程序设计(Java)》第四章学习总结
一. 理论知识部分 第四章 对象与类 本章主要讲述面向对象程序设计.如何创建标准Java类库中的类对象.如何编写自己的类. 1.面向对象程序设计的几个主要概念: 抽象数据类型.类和对象.封装.类层次( ...
- 【Hadoop离线基础总结】Hue与Hadoop集成
目录 1.更改所有hadoop节点的core-site.xml配置 2.更改所有hadoop节点的hdfs-site.xml 3.重启hadoop集群 4.停止hue的服务,并继续配置hue.ini ...