LRU缓存机制
题目描述
运用你所掌握的数据结构,设计和实现一个 LRU (最近最少使用) 缓存机制。它应该支持以下操作: 获取数据 get 和 写入数据 put 。
获取数据 get(key) - 如果密钥 (key) 存在于缓存中,则获取密钥的值(总是正数),否则返回 -1。
写入数据 put(key, value) - 如果密钥已经存在,则变更其数据值;如果密钥不存在,则插入该组「密钥/数据值」。当缓存容量达到上限时,它应该在写入新数据之前删除最久未使用的数据值,从而为新的数据值留出空间。
进阶:
你是否可以在 O(1) 时间复杂度内完成这两种操作?
示例:
LRUCache cache = new LRUCache( 2 /* 缓存容量 */ );
cache.put(1, 1);
cache.put(2, 2);
cache.get(1); // 返回 1
cache.put(3, 3); // 该操作会使得密钥 2 作废
cache.get(2); // 返回 -1 (未找到)
cache.put(4, 4); // 该操作会使得密钥 1 作废
cache.get(1); // 返回 -1 (未找到)
cache.get(3); // 返回 3
cache.get(4); // 返回 4
解题思路
LRU的思想是一种最近最少使用的缓存机制,也就是对于cache已有的数据,每次访问它会使它移到最前面,对于cache没有的数据,会直接加到最前面(如果超出了cache的缓存大小,则将最后面的一个数据删除)
主要思路是使用双链表+hash
python中的hash使用字典来实现,存储key与node的一一对应关系
双链表来模拟cache,每个节点node代表一个key包含的数据值
代码
class DLinkList: def __init__(self, key=0, value=0): self.key = key self.value = value self.prev = None self.next = None class LRUCache: def __init__(self, capacity: int): self.capacity = capacity #创建头结点和尾结点,方便操作 self.head = DLinkList() self.tail= DLinkList() self.head.next = self.tail self.tail.prev = self.head #初始长度为0 self.size = 0 #建立一个字典,存储对应关系 self.cache = dict() def get(self, key: int) -> int: if key not in self.cache: return -1 #如果key存在,则把key对应的节点移到链表头部,并返回其值 node = self.cache[key] self.moveToHead(node) return node.value def put(self, key: int, value: int) -> None: if key not in self.cache: #先创建新节点,并将节点与key的对应关系加到cache,再将这个节点加入到链表头部 node = DLinkList(key, value) self.cache[key] = node self.addToHead(node) self.size += 1 #判断是否超出了缓存大小 if self.size > self.capacity: #移除链表队尾 remove = self.removeTail() #删除cache的对应索引 self.cache.pop(remove.key) self.size -= 1 else: #如果key存在,则直接将对应节点移到链表队头,且修改value node = self.cache[key] node.value = value self.moveToHead(node) def addToHead(self, node): node.prev = self.head node.next = self.head.next self.head.next.prev = node self.head.next = node def removeNode(self, node): node.prev.next = node.next node.next.prev = node.prev def removeTail(self): node = self.tail.prev self.removeNode(node) return node def moveToHead(self, node): self.removeNode(node) self.addToHead(node) # Your LRUCache object will be instantiated and called as such: # obj = LRUCache(capacity) # param_1 = obj.get(key) # obj.put(key,value)