当前位置: 首页 > news >正文

别再让 ES 把你拖垮!5 个实战技巧让搜索性能提升 10 倍

“搜索怎么又慢了?”

这是每一个后端工程师在大促期间最不想听到的来自产品经理的“灵魂拷问”。

Elasticsearch(ES)虽然是搜索界的扛把子,但它也是出了名的“资源吞噬者”。如果不懂底层原理,随意建索引、乱写 DSL,你的 ES 集群很快就会变成一个内存黑洞CPU 绞肉机

上一篇我们讲了《搜索原理与 DSL 查询实战》,解决了“怎么查”的问题。今天,我们要解决更致命的问题:怎么查得快?

结合我在生产环境踩过的无数坑,总结出这 5 个立竿见影的实战技巧,照着做,至少能让你的搜索性能提升一个数量级。


技巧一:彻底告别from + size,拥抱search_after

场景:你在做一个无限滚动的商品列表,用户滑到了第 100 页(from=1000, size=10)。
后果:ES 性能断崖式下跌,甚至直接 OOM。

原理
传统的from + size是“分散-收集”模式。协调节点需要从每个分片获取from + size条数据,然后在内存中进行全局排序,最后截取出你要的那size条。
比如from=10000,协调节点需要从每个分片拉取 10010 条数据,网络开销巨大,且排序是 CPU 密集型操作。

实战方案
使用search_after代替分页。它利用上一页的最后一条数据的排序值作为“游标”,告诉 ES:“从这个位置之后开始找”。

代码对比

慢查询(深度分页)

GET/products/_search{"from":10000,"size":10,"query":{"match_all":{}},"sort":[{"create_time":"desc"},{"_id":"asc"}]}

快查询(游标分页)

GET/products/_search{"size":10,"query":{"match_all":{}},"search_after":["2023-10-27T10:00:00Z","doc_id_12345"],"sort":[{"create_time":"desc"},{"_id":"asc"}]}

注意:search_after的参数必须与sort顺序一致,且必须包含一个唯一值(如_id)防止漏数据。

效果:查询耗时从秒级降低到毫秒级,且不随页码加深而变慢。


技巧二:Query 是杀手,Filter 是救星

场景:查询“标题包含手机”且“状态为在售”的商品。
错误写法:把所有条件都放在must里。

原理

  • Query Context(如match,bool must:需要计算相关性评分(_score),涉及 TF-IDF 算法,消耗 CPU。
  • Filter Context(如term,bool filter:只回答“是/否”,不计算分数。结果会被缓存(Bitset),后续同样的过滤直接命中缓存,速度极快。

实战方案
黄金法则:能用 Filter 的,绝不用 Query!

低效写法

"bool":{"must":[{"match":{"title":"手机"}},{"term":{"status":"on_sale"}}]}

高效写法

"bool":{"must":[{"match":{"title":"手机"}}],"filter":[{"term":{"status":"on_sale"}}]}

先用filter砍掉 90% 的无关数据,再对剩下的 10% 做全文匹配评分,性能提升不是一点点。


技巧三:字段映射(Mapping)瘦身计划

场景:索引越来越大,查询越来越慢,磁盘告急。
原因:ES 默认很“大方”。一个text字段,它会自动生成多个子字段(keyword,text,_source等),还会存储norms(用于评分)和_all

实战方案

  1. 禁用不需要的特性:如果不需要对某字段做全文搜索评分(如 ID、状态码、标签),直接设为keywordmatch_only_text
  2. 关闭_source:对于日志类场景,如果原始 JSON 不需要存储(只需搜索),在 Mapping 中关闭_source,可节省 30%-40% 存储空间。
  3. 使用match_only_text(ES 7.10+):如果你只需要分词搜索,不需要词频统计(评分),用这个类型代替text,性能更好,体积更小。

示例

"mappings":{"properties":{"log_message":{"type":"match_only_text"},"host_name":{"type":"keyword"}}}

技巧四:索引生命周期管理(ILM)—— 热温冷架构

场景:半年前的订单数据还在占用宝贵的 SSD 资源,导致新数据写入变慢。

实战方案
实施ILM(Index Lifecycle Management)策略,让数据“流动”起来:

  • Hot(热)阶段:最近 7 天的数据。使用 SSD 硬盘,副本数设为 1,刷新间隔短(如 1s),保证写入和查询最快。
  • Warm(温)阶段:7-30 天的数据。使用普通 HDD,副本数降为 0(或只读),合并 Segment,减少资源占用。
  • Cold(冷)阶段:30 天以上的数据。甚至可以冻结索引(Freeze Index),将其从内存中卸载,查询时再加载。查询虽然慢一点,但几乎不耗资源。
  • Delete:超过保留期直接删除。

效果:用最低的成本支撑海量数据,不再为“历史数据拖慢实时业务”而头疼。


技巧五:拒绝“小索引”迷信,合理设置分片

误区:“分片越多,并行度越高,查询越快?” ——大错特错!

原理
每个分片都是一个独立的 Lucene 实例,占用固定的内存和文件句柄。分片过多会导致:

  1. 集群状态频繁更新:主节点忙于维护分片状态,导致集群不稳定。
  2. 查询分散开销:一个查询需要 scatter-gather 到几十个分片,网络延迟叠加。

实战建议

  1. 控制分片大小:单个分片大小建议在20GB - 50GB之间。太小浪费资源,太大难迁移。
  2. 估算公式总分片数 = (预估总数据量 * 1.2) / 50GB
  3. 副本策略:热数据保留 1 个副本(高可用),温/冷数据设为 0 副本(省空间)。

一句话总结与其增加分片数量,不如增加单分片的硬件配置(CPU/IOPS)。


结语:优化是一场修行

Elasticsearch 的性能优化没有银弹,它是对数据结构、硬件资源、业务场景的综合权衡。

  • search_after解决深度分页;
  • filter榨干缓存红利;
  • 用 Mapping 瘦身减少 IO;
  • 用 ILM 分层存储降本增效;
  • 用合理的分片策略避免资源碎片化。

把这 5 点做到位,你的 ES 集群至少能从“卡顿”变成“丝滑”。

http://www.jsqmd.com/news/356076/

相关文章:

  • XSLT 浏览器
  • AI写论文宝藏来袭!这4款AI论文生成工具,职称论文写作不用愁!
  • AI原生应用与语音识别的创新结合模式
  • 计算机等级考试—高频英语词汇—东方仙盟练气期
  • 基于SpringBoot的车联网位置信息管理软件毕设源码
  • AI写论文的利器!4款AI论文生成工具,解决期刊论文写作难题
  • vue3+python基于python的球类体育赛事发布和在线购票选座系统60576715
  • vue3+python基于python的贫困生资助管理系统 大学生贷款申请系统17081901
  • ASCII码在PLC编程中的应用及ASCII码对照全表
  • vue3+python基于Python协同过滤算法的图书馆图书借阅推荐系统设计与实现217413115
  • 2.7 JSP, El表达式,JSTL
  • 2026气相色谱仪推荐:班通Bamtone R204,适用Rohs 2.0检测
  • vue3+python基于python的养老院老年人健康跟踪系统分析与设计743441180
  • 实用指南:NLP相关面试题
  • 5G技术推动提示系统的全面变革,提示工程架构师解读
  • HBase与Kafka集成:构建实时大数据处理管道
  • Day30事件解绑
  • Linux 性能实战 | 第 8 篇 上下文切换、内核线程与调度延迟
  • 大模型学习必备:14个核心概念详解,建议收藏反复阅读
  • CF1511G
  • 程序员必看:如何像带新员工一样“训练“你的AI智能体
  • 降AI率神器怎么选?十大降AI工具避坑指南!我肝了三天实测,吐血整理这份毕业保命清单(含免费版)
  • PiliPlus 1.1.6 | 基于Flutter开发的第三方哔哩,目前最好用的一款
  • COTX茶月山无门槛红包怎么领?美团“集金卡”活动,让你春节喝茶更划算! - Top品牌推荐
  • 论文AI率高怎么办?降AI率神器怎么选?我肝了三天实测这10款降AI工具,吐血整理这份毕业保命清单
  • COTX茶月山怎么点更便宜?美团让你轻松省钱! - Top品牌推荐
  • 【YOLOv10多模态创新改进】独家特征融合创新篇 | ICCV 2025 | 引入 FDAM 特征差异对齐模块,适合可见光与红外图像融合目标检测、多模态图像融合目标检测、多模态遥感图像分割有效涨点
  • 薅羊毛指南:Costa Coffee 美团平台超值攻略,让你喝出品质与实惠! - Top品牌推荐
  • TCN-Transformer-BiGRU组合模型回归+SHAP分析+新数据预测+多输出!深度学习可解释分析
  • agentscope 调用vlm