@lru_cache是functools中基于LRU策略的内存缓存装饰器,要求参数可哈希且函数为纯函数;支持maxsize控制容量,提供cache_info和cache_clear等管理方法。

@lru_cache 是 Python 标准库 functools 中提供的一个装饰器,用于为函数结果做内存缓存,避免重复计算,特别适合纯函数(相同输入总返回相同输出、无副作用)。
缓存原理与触发条件
它基于“最近最少使用”(LRU)策略管理缓存:当缓存满时,自动淘汰最久未被调用的条目。只有满足以下条件才会命中缓存:
- 函数调用参数完全一致(包括顺序、类型、值);
- 参数必须是可哈希的(如 int、str、tuple,但 list、dict 不行);
- 函数未被重新定义或重载(缓存绑定在函数对象上)。
基本用法与常用参数
最简写法:@lru_cache(),启用默认缓存(最大容量 128,不设上限)。更常见的写法是显式控制大小:
-
@lru_cache(maxsize=128):限制最多缓存 128 组输入输出; -
@lru_cache(maxsize=None):不限制大小,适合参数组合有限且确定的场景; -
@lru_cache(maxsize=0):禁用缓存(仅用于调试或临时关闭)。
查看与管理缓存状态
装饰后函数会新增三个实用方法和属性:
立即学习“Python免费学习笔记(深入)”;
-
func.cache_info():返回命名元组CacheInfo(hits, misses, maxsize, currsize),用于监控命中率; -
func.cache_clear():清空当前所有缓存,适合数据源更新后重置; - 缓存键由
hash(args) + hash(kwargs.items())生成,因此需确保参数可哈希。
典型适用与慎用场景
适合:递归计算(如斐波那契)、IO 不敏感的数值转换、配置解析、固定查询逻辑;
慎用:含时间/随机/全局状态的函数、参数含不可哈希对象(如 dict/list)、高并发下共享缓存可能引发一致性问题。










