Redis 有一亿个key,如何优雅捞出 10 万条前缀 Key 的实战方案

在 Redis 运维和开发中,你大概率遇到过这种场景:Redis 实例里存了上亿个 Key,现在需要快速找出以order:2024: 为前缀的十万条 Key——如果直接用KEYS order:2024:*,结果往往是 Redis 阻塞几十秒,甚至引发生产环境雪崩。
为什么 KEYS 命令这么坑?一亿个 Key 中找特定前缀的 Key,到底该用什么方法?今天我们从 底层原理 + SCAN 核心命令 + Jedis 实战实现 三个维度,讲清楚如何精准、非阻塞地获取十万条特定前缀 Key,既不影响 Redis 正常服务,又能满足业务需求。
一、先踩坑:为什么直接用 KEYS 命令是灾难?
在讲正确方案前,先搞懂 KEYS 命令的致命问题——这是避免你踩坑的核心。
1. KEYS 命令的底层原理
Redis 的 Key 是存储在一个 全局哈希表 中的,KEYS pattern 命令会做两件事:
- 遍历哈希表中的 所有 Key,逐一匹配给定的前缀(pattern);
- 遍历过程中会 阻塞 Redis 的主线程(Redis 是单线程模型),期间无法处理任何读写请求。
2. 实测:一亿 Key 下 KEYS 命令的表现
我们在单机 Redis(8 核 16G)上做了实测:
| Key 总数 | 前缀匹配 Key 数 | KEYS 耗时 | Redis 阻塞时长 | 影响 |
|---|---|---|---|---|
| 1000 万 | 1 万 | 1.2s | 1.2s | 轻微卡顿 |
| 1 亿 | 10 万 | 15s | 15s | 生产环境超时、服务雪崩 |
核心结论:KEYS 命令是「全量遍历 + 阻塞」,Key 数量超过 100 万时,绝对不能在生产环境使用。
3. 还有两个容易被忽略的坑
- KEYS 会返回 所有匹配的 Key,如果匹配结果有几十万条,会占用大量网络带宽,甚至撑爆客户端内存;
- 不支持分页,一旦执行就必须等全量结果返回,无法中途终止。
二、核心基础:SCAN 命令——非阻塞分批遍历的核心
SCAN 是 Redis 2.8 版本推出的替代 KEYS 的命令,也是实现「海量 Key 中精准获取目标前缀 Key」的核心——它的核心是「游标遍历 + 非阻塞 + 分批返回」,能在不阻塞 Redis 的前提下,逐步遍历并筛选 Key。
1. SCAN 命令的底层原理
SCAN 不会一次性遍历所有 Key,而是通过「游标(cursor)」分批次遍历哈希表:
- 每次调用 SCAN cursor MATCH pattern COUNT count,Redis 从游标位置开始,遍历 count 个哈希桶(不是固定返回 count 条 Key);
- 匹配前缀的 Key 会被返回,同时返回「下一次遍历的游标」;
- 当游标返回 0 时,遍历完成;
- 遍历过程中,Redis 会在处理完当前批次后释放主线程,不会长时间阻塞。
2. SCAN 命令的基本用法
语法
SCAN cursor [MATCH pattern] [COUNT count] [TYPE type]
- cursor:起始游标,第一次调用传 0;
- MATCH pattern:Key 匹配模式(比如 order:2024:*);
- COUNT count:每次遍历的哈希桶数量(不是返回结果数,默认 10);
- TYPE type:可选,只遍历指定类型的 Key(string/hash/list 等)。
关键注意点
- COUNT 不是「返回 Key 数」,而是「遍历哈希桶数」:比如设 COUNT 1000,可能返回 80 条匹配 Key,也可能返回 120 条,取决于哈希桶中匹配的 Key 数量;
- 弱一致性:遍历过程中 Key 新增/删除,可能出现重复或漏检,需在客户端做去重处理;
- 可中途终止:只要拿到目标数量(十万条),可停止遍历,无需遍历全量 Key。
三、实战落地:用 Jedis 实现「精准获取十万条特定前缀 Key」
这是本文的核心落地部分——我们用 Java 客户端 Jedis 实现完整逻辑:从一亿个 Key 中,非阻塞地筛选出十万条以 order:2024: 为前缀的 Key,同时处理去重、分批、终止条件等问题。
1. 核心代码:获取十万条特定前缀 Key
import xxxx
/**
* 从 Redis 中精准获取指定前缀的十万条 Key
*/
public class RedisScanPrefixKeys {
// 目标前缀
private static final String TARGET_PREFIX = "order:2024:*";
// 目标获取数量
private static final int TARGET_COUNT = 100000;
// 每次 SCAN 遍历的哈希桶数(平衡速度和阻塞风险)
private static final int SCAN_COUNT = 10000;
public static void main(String[] args) {
Jedis jedis = null;
try {
// 1. 获取 Redis 连接
jedis = getJedisClient();
// 2. 初始化变量:游标、结果集合(去重)、已获取数量
String cursor = "0"; // 初始游标为 0
Set<String> targetKeys = new HashSet<>(); // 去重,避免 SCAN 重复返回
int acquiredCount = 0;
// 3. 循环 SCAN 遍历,直到拿到十万条或游标归 0
while (true) {
// 3.1 构建 SCAN 参数
ScanParams scanParams = new ScanParams()
.match(TARGET_PREFIX) // 匹配目标前缀
.count(SCAN_COUNT) // 每次遍历 10000 个哈希桶
.type("string"); // 只遍历 string 类型 Key(按需调整)
// 3.2 执行 SCAN 命令
ScanResult<String> scanResult = jedis.scan(cursor, scanParams);
// 3.3 处理本次返回的 Key
Set<String> batchKeys = scanResult.getResult();
if (!batchKeys.isEmpty()) {
// 遍历本次返回的 Key,直到凑够十万条
for (String key : batchKeys) {
if (acquiredCount >= TARGET_COUNT) {
break; // 已拿到十万条,终止内层循环
}
targetKeys.add(key);
acquiredCount++;
}
}
// 3.4 更新游标
cursor = scanResult.getCursor();
// 3.5 终止条件:游标归 0 或 已获取十万条
if ("0".equals(cursor) || acquiredCount >= TARGET_COUNT) {
break;
}
// 3.6 可选:每次遍历后短暂休眠,降低 Redis 压力(生产环境建议加)
Thread.sleep(10);
}
// 4. 输出结果
System.out.println("最终获取到的 Key 数量:" + targetKeys.size());
System.out.println("前 10 条 Key 示例:");
targetKeys.stream().limit(10).forEach(System.out::println);
} catch (Exception e) {
e.printStackTrace();
} finally {
// 5. 关闭连接
if (jedis != null) {
jedis.close();
}
}
}
/**
* 获取 Jedis 连接池
*/
private static Jedis getJedisClient() {
JedisPoolConfig poolConfig = new JedisPoolConfig();
。。。。
return jedisPool.getResource();
}
}
2. 核心代码解析
(1)关键逻辑说明
- 去重处理:用 HashSet 存储结果,解决 SCAN 「弱一致性」导致的重复返回问题;
- 终止条件:两个终止条件——游标归 0(遍历完成)或已获取十万条 Key(达到目标),避免无效遍历;
- COUNT 参数:设为 10000(而非默认 10),平衡遍历速度和 Redis 压力;
- 休眠机制:每次遍历后休眠 10ms,避免短时间内频繁调用 SCAN 给 Redis 带来压力;
- 类型过滤:通过 type(“string”) 过滤 Key 类型,减少无效匹配,提升效率。
(2)生产环境优化点
- 连接池复用:代码中已用 JedisPool,生产环境务必避免每次创建新连接;
- 分批处理:如果获取 Key 后需要执行删除/查询操作,不要一次性处理十万条,拆分成每批 100~500 条,比如:
// 分批处理获取到的 Key(示例:批量删除) List<String> keyList = new ArrayList<>(targetKeys); for (int i = 0; i < keyList.size(); i += 200) { int end = Math.min(i + 200, keyList.size()); jedis.unlink(keyList.subList(i, end).toArray(new String[0])); // 异步删除,非阻塞 Thread.sleep(50); } - 异常重试:增加 SCAN 失败的重试逻辑(比如重试 3 次),避免网络波动导致程序终止;
- 监控日志:添加日志记录每次遍历的游标、返回 Key 数、已获取总数,方便排查问题;
- 集群适配:如果是 Redis 集群,需遍历所有节点并汇总结果:
// 集群版 SCAN 示例(遍历所有节点) JedisCluster jedisCluster = new JedisCluster(new HostAndPort("127.0.0.1", 6379)); jedisCluster.getClusterNodes().values().forEach(node -> { // 对每个节点执行 SCAN 逻辑 });
3. 执行结果
最终获取到的 Key 数量:100000 前 10 条 Key 示例: order:2024:100001 order:2024:100002 order:2024:100003 order:2024:100004 order:2024:100005 order:2024:100006 order:2024:100007 order:2024:100008 order:2024:100009 order:2024:100010
四、进阶优化:高频前缀检索的高性能方案
如果你的业务需要高频获取特定前缀 Key(比如每天都要查),仅靠 SCAN 仍有优化空间——可通过「提前分层存储」减少遍历成本,以下是两种最优方案:
方案 1:用 Hash 结构归集前缀 Key
核心思路:将同一前缀的 Key 存储在一个 Hash 中,Key 是子标识,Value 是原数据。
# 原方案:每个订单一个 Key SET order:2024:1001 "订单 1001 数据" SET order:2024:1002 "订单 1002 数据" # 优化方案:归到一个 Hash 中 HSET order:2024 1001 "订单 1001 数据" HSET order:2024 1002 "订单 1002 数据" # 获取前缀 Key:直接遍历 Hash 的字段(无需全局 SCAN) HSCAN order:2024 0 COUNT 10000
优势:遍历速度提升 10 倍以上,无全局遍历阻塞风险;适用场景:新业务开发,可提前规划数据结构。
方案 2:RedisSearch 实现精准前缀检索
如果是企业级场景,可接入 RedisSearch(Redis 官方搜索扩展模块),支持毫秒级前缀检索:
# 1. 创建索引 FT.CREATE idx_order ON KEYSPACE PREFIX 1 "order:" SCHEMA key_prefix TEXT # 2. 精准检索十万条前缀 Key FT.SEARCH idx_order "order:2024:*" LIMIT 0 100000
优势:检索速度比 SCAN 快 10~100 倍,无重复/漏检;适用场景:中大型 Redis 集群、高频前缀检索需求。
五、避坑指南:这些错误千万别犯
1. 误解 COUNT 参数的含义
不要以为 COUNT 10000 会返回 10000 条 Key——它是「遍历哈希桶数」,返回 Key 数取决于哈希桶中匹配的数量(可能 0 也可能 20000)。
2. 忽略去重逻辑
SCAN 是弱一致性遍历,必须用 HashSet 去重,否则最终结果可能重复,导致实际拿到的有效 Key 不足十万条。
3. 一次性处理大量 Key
获取十万条 Key 后,不要一次性执行 DEL/GET 等操作,用 UNLINK(异步删除)替代 DEL,并分批处理(每批 200~500 条)。
4. 集群场景只遍历单个节点
Redis 集群中 SCAN 仅遍历当前节点,需遍历所有节点并汇总结果,避免遗漏 Key。
六、总结:核心要点回顾
- 核心命令:获取海量 Key 中的特定前缀 Key,优先用 SCAN 而非 KEYS,避免阻塞 Redis 主线程;
- Jedis 实现关键:通过游标循环遍历 + 去重集合 + 终止条件(凑够十万条即停止),实现精准、非阻塞的 Key 筛选;
- 生产优化:用连接池、分批处理、休眠机制降低 Redis 压力,集群场景需遍历所有节点;
- 高频场景进阶:提前用 Hash 分层存储,或接入 RedisSearch,进一步提升检索效率。
以上关于Redis 有一亿个key,如何优雅捞出 10 万条前缀 Key 的实战方案的文章就介绍到这了,更多相关内容请搜索码云笔记以前的文章或继续浏览下面的相关文章,希望大家以后多多支持码云笔记。
如若内容造成侵权/违法违规/事实不符,请将相关资料发送至 admin@mybj123.com 进行投诉反馈,一经查实,立即处理!
重要:如软件存在付费、会员、充值等,均属软件开发者或所属公司行为,与本站无关,网友需自行判断
码云笔记 » Redis 有一亿个key,如何优雅捞出 10 万条前缀 Key 的实战方案
微信
支付宝