当前位置: 首页 > news >正文

掌握Prompt Caching:让您的Agent跑得更久、更稳、更便宜,收藏这篇开发者必备指南!

本文深入探讨了如何通过设计缓存友好的会话结构来优化Agent性能。强调稳定内容应放在会话前缀,变化内容追加在后面,以便模型复用已读前缀,降低成本。文章详细解析了Prompt Caching的原理,指出其并非简单的缓存机制,而是Agent的基础设施。通过分层上下文管理(稳定前缀、任务状态、动态尾巴),可显著提升缓存命中率,降低计算开销。同时,文章也提醒开发者注意细节,避免破坏缓存,并提供了监控Prompt Caching效果的指标。最终强调,优化Agent性能的关键在于先设计好“地基”,再谈智能体。

Agent 要跑得久、跑得稳、跑得便宜,不能只靠更大的上下文窗口。真正要先设计的是缓存友好的会话结构:稳定内容放在前面,变化内容追加在后面,让模型已经读过的前缀可以持续复用。

Prompt Caching 不是一个“打开就省钱”的按钮。它更像 Agent 的地基。系统提示词、工具定义、项目规则、长期任务背景,这些内容一旦被反复重算,Agent 每走一步都在为旧信息重新付钱;一旦被稳定缓存,后面的多轮动作才有机会变成低延迟、低成本的增量调用。

上一篇讲长上下文和 KV Cache 时,我们说上下文不是免费的。今天可以再往前推一步:Agent 不是怕上下文长,而是怕每一轮都把同一段上下文当新内容重读。

Agent 为什么比普通聊天更需要缓存?

普通聊天通常是一问一答,系统提示词不长,工具也少。Agent 不一样。一个代码 Agent 或研究 Agent 每次请求里,经常会带上几类固定内容:

  • 系统行为规则;
  • 工具定义和调用协议;
  • 项目说明、仓库约束、工作流规范;
  • 任务目标、已有计划和关键背景。

这些内容在第一轮有价值,因为模型必须先理解工作环境。问题出在第二轮、第三轮、第五十轮:如果稳定前缀没有命中缓存,模型就会把同一批工具定义和项目规则重新做一遍 prefill。

这就是 Agent 成本里很隐蔽的一项:不是新问题贵,而是旧前缀反复贵。

OpenAI 的 Prompt Caching 文档把优化原则说得很直接:缓存命中依赖 prompt 的精确前缀匹配,静态内容应该放在开头,动态内容应该放在末尾。Anthropic 的文档也强调,缓存引用的是toolssystemmessages这个顺序里直到缓存断点的完整前缀。

换成 Agent 语言,就是一句话:上层要稳,下层才敢动。

Prompt Caching 缓存的不是“回答”,而是“读过的前缀”

很多缓存系统缓存的是最终结果,比如“同一个问题直接返回同一个答案”。Prompt Caching 不是这个逻辑。它缓存的是模型处理输入时产生的中间状态,尤其是 attention 层在 prefill 阶段算出的 Key/Value 状态。

这点很关键。Agent 每一轮都可能需要新的推理和新工具调用,不能简单复用上一次回答。但如果前面的系统提示词、工具定义、项目背景完全一样,模型就不需要每次都从零读完这些前缀。

Prompt Cache 论文把这种思想表达成“复用重叠 prompt 片段的 attention states”。论文关注的例子包括系统消息、prompt 模板和上下文文档,这些正是 Agent 请求里最常重复的部分。它的实验也说明,长 prompt 场景下,复用 attention state 对首 token 延迟尤其有帮助。

所以,Prompt Caching 对 Agent 的价值不只是省输入 token 费用。更准确地说,它同时影响三件事:

影响解释
成本缓存读通常比完整输入处理便宜
TTFT稳定前缀不再完整 prefill,首 token 更快出来
并发重复 prefill 减少后,服务端更容易把资源留给真正新增的请求

OpenAI 文档里还提到,满足条件的 prompt 会自动缓存,并通过usage.prompt_tokens_details.cached_tokens报告缓存命中的 token 数。Anthropic 则提供更显式的cache_control断点,并通过cache_creation_input_tokenscache_read_input_tokensinput_tokens拆出缓存写入、缓存读取和未缓存输入。

这些指标不只是账单字段。对 Agent 工程来说,它们应该进入监控面板。

为什么稳定前缀是 Agent 的“地基”?

一个 Agent 系统通常有三层上下文。

第一层是稳定前缀,包括系统规则、工具 schema、角色边界、安全约束、项目指南。这一层应该尽量不动,因为它决定缓存能不能命中。

第二层是任务状态,包括当前目标、计划、已完成步骤、未解决问题、关键文件和引用材料。这一层会变化,但应该以追加或压缩摘要的方式变化,避免回头修改第一层。

第三层是动态尾巴,包括用户新指令、模型最新回复、工具输出、终端日志、检索结果。这一层天然会增长,也是 Agent 每一步真正需要新增处理的部分。

缓存友好的 Agent,不是把所有内容都塞进一个巨大 prompt,而是把上下文按“稳定程度”分层。稳定前缀越干净,缓存命中率越高;动态尾巴越克制,长会话越不容易膨胀。

这也是为什么 Claude Code、Cursor、Devin 这类 Agent 工具都非常重视项目说明文件、工具协议和会话结构。对用户来说,这些只是提示词;对推理系统来说,它们是可以被反复复用的计算资产。

哪些细节最容易把缓存打碎?

Prompt Caching 最反直觉的地方,是它通常要求“完全一样”。意思不是语义差不多,而是 token 前缀要匹配。

下面这些细节都会让缓存命中率下降:

破坏方式后果改法
每轮在 system prompt 里注入时间戳前缀每轮都变把时间放到动态消息
工具 schema 顺序不稳定工具前缀哈希变化固定序列化顺序
会话中途增删工具缓存断点前内容变化会话开始前加载常用工具
中途切模型模型相关缓存不可复用按模型维度设计会话
把状态写回系统提示词稳定层被污染状态追加到消息或单独摘要
检索材料排序飘忽文档前缀不稳定固定排序、去重、分层插入

这些问题在 demo 里不明显,因为 demo 只有三五轮。到了真实 Agent 工作流,几十轮工具调用、上百个文件片段、多次压缩摘要混在一起,缓存命中率会被这些小变化吃掉。

KVFlow 论文讨论多 Agent 工作流时提到,Agent 会被反复调用,固定 prompt 对应的 KV tensor 本来可以复用;但普通 LRU 策略可能在下一次复用前把缓存淘汰掉,所以需要工作流感知的缓存管理和预取。TokenDance 进一步从多 Agent 同步轮次出发,指出多 Agent 会共享大量相同输出块,普通前缀缓存并不能充分利用这种冗余。

这说明 Prompt Caching 已经不是“提示词技巧”。它正在变成 Agent serving 的系统设计问题。

自己做 Agent,Prompt 应该怎么排?

如果你在做自己的 Agent,可以直接按这个顺序组织请求:

1. **System rules** 稳定身份、行为边界、输出规范、安全约束 2. **Tool definitions** 固定工具列表、固定 schema、固定序列化顺序 3. **Project or product context** 项目说明、代码规范、长期约束、业务背景 4. **Task state** 当前目标、计划、已完成动作、未完成事项、压缩摘要 5. **Dynamic messages** 用户最新输入、工具结果、检索片段、终端输出

这套排法的目标不是让 prompt 看起来整齐,而是让缓存断点前的内容尽量稳定。

这里还有一个容易被忽略的原则:不要把短期状态写进长期前缀。 比如“当前时间”“这一步刚失败了”“用户刚刚改了需求”,这些信息很重要,但它们应该进入动态消息或任务状态,而不是改写系统提示词。

如果上下文快满了,也不要粗暴重写整段 prompt。更好的方式是做 cache-safe compaction:保留稳定前缀,把历史对话压缩成新的任务状态摘要,再继续往后追加。压缩会产生新内容,但至少不会把地基一起砸掉。

该怎么监控 Prompt Caching?

不要只看总 token。总 token 会告诉你花了多少,但不会告诉你 Agent 结构好不好。

我建议至少看 5 个指标:

指标看什么
Cache read tokens有多少输入来自缓存
Cache creation tokens有多少输入在写入缓存
Uncached input tokens还有多少输入每轮都在重算
Cache hit ratio缓存读取占缓存相关 token 的比例
TTFT首 token 是否随着缓存命中下降

一个简单的缓存效率可以这样算:

cache_hit_ratio = cache_read_tokens / (cache_read_tokens + cache_creation_tokens + uncached_input_tokens)

这个公式不追求学术严谨,它的作用是帮你发现趋势:如果 Agent 跑了很多轮,cache_read_tokens仍然很低,就说明稳定前缀没有稳定;如果uncached_input_tokens持续暴涨,就说明动态尾巴失控;如果 TTFT 没有改善,可能是缓存没命中,也可能是检索材料和工具输出太长。

什么时候不要迷信 Prompt Caching?

Prompt Caching 很重要,但不是所有慢请求都能靠它解决。

短 prompt 的一次性问答,缓存收益有限。每轮检索材料都完全不同的 RAG,缓存也很难救前缀漂移。输出很长、decode 阶段占大头的任务,Prompt Caching 对首 token 有帮助,但不会让生成本身消失。高并发系统里,缓存还会受到路由、TTL、模型、机器内存和淘汰策略影响。

OpenAI 文档里提到,prompt 至少达到一定长度才会显示实际缓存命中;Anthropic 的缓存也有默认生命周期,并且长 TTL 会有额外写入成本。这些约束提醒我们:Prompt Caching 是工程杠杆,不是无限免单。

更稳的判断标准是:

  • 稳定前缀是否足够长;
  • 同一前缀是否会被多次复用;
  • 请求间隔是否在缓存生命周期内;
  • 动态内容是否只追加在后面;
  • 监控里是否能看到缓存读 token 上升。

五个条件都满足,Prompt Caching 才会真正变成 Agent 的收益。

结尾:先设计地基,再谈智能体

Agent 系统的很多问题,表面上是模型能力问题,落到线上经常是上下文工程问题。

稳定前缀没有设计好,工具再多也会变成重复 prefill。动态尾巴不控制,长上下文会吞掉 TTFT 和显存。缓存指标不监控,成本下降只能靠猜。

我会把 Prompt Caching 当成 Agent 的基础设施,而不是成本优化小技巧。一个合格的 Agent 设计,至少要回答三个问题:

  • 哪些内容必须稳定放在前缀?
  • 哪些状态只能追加,不能回写?
  • 每轮请求的缓存命中率是否可观测?

把这三个问题答清楚,Agent 才不是每走一步都重新认识世界。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2026 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

http://www.jsqmd.com/news/815870/

相关文章:

  • 2026年怎么选靠谱防爆吸尘器厂家?洁威科定制直供保安全 - 速递信息
  • Windows系统优化神器:5分钟快速配置你的Windows电脑
  • 沭阳智赛交通设施:云龙热熔划线推荐几家公司 - LYL仔仔
  • 2026年大连搬家公司深度横评:同城长途办公室搬迁一站式对标指南 - 企业名录优选推荐
  • Dify工作流自定义工具执行器开发与集成实战指南
  • Fast-GitHub终极指南:三步解决国内GitHub访问难题
  • 2026香港本科申请中介推荐,港前三申请中介哪家靠谱 - 品牌2026
  • 广州亿源贸易商行:荔湾专业的燕窝回收选哪家 - LYL仔仔
  • 旋转粘度计哪家口碑好?从市场潜力看国产与进口品牌格局 - 品牌推荐大师1
  • Android二进制XML逆向工程:AXMLPrinter2深度解析与技术实现
  • 2026年杭州格力空调维修靠谱服务商甄选指南:性价比与可靠性深度评测 - 企业品牌优选推荐官
  • 开源智能家居本地控制方案:DuckyClaw项目实战与自动化集成
  • 山东优质的PLC培训机构排行榜TOP3: 一对一教学零基础也能学附联系方式及地址 - 新闻快传
  • 多商户商城系统哪家好?三款系统介绍 - FaiscoJeff
  • 宁波双利再生资源:象山废旧二手车回收怎么联系 - LYL仔仔
  • 2026苏州财税服务公司优选指南:代理记账、公司注册、代办营业执照口碑推荐,财务代理公司选择指南 - 海棠依旧大
  • 【单片机】告别串口:SEGGER RTT日志打印实战与性能调优
  • Sora 2 × Final Cut整合黑箱曝光(基于逆向分析FCP日志+OpenAI Webhook捕获的1427条真实交互指令)
  • 浏览器解析HTML头部的底层逻辑技术文章大纲
  • Windows风扇控制终极指南:免费开源软件Fan Control让你的电脑散热更智能
  • 苏锡常泰地区私立复读学校综合实力横向排行 - 速递信息
  • IC设计——布局布线流程
  • 2026年大连搬家公司深度评测:从老兵搬家看透行业痛点与透明化破局 - 企业名录优选推荐
  • 2026年PCBA包工包料厂家推荐:综合实力解析 靠谱品牌选型指南 - 速递信息
  • group by的列、where的列的有效性
  • Ansible 如何使用 handler 实现服务配置变更后的自动重启?
  • 从‘上升气泡’案例出发,手把手复现COMSOL两相流水平集法完整仿真流程
  • 手把手教你读懂MIPI CPHY那‘神秘’的三线系统:从线态变化到16bit数据恢复全流程拆解
  • 2026LinkedIn获客好友邀请受限怎么办?安全获客与防封的6个技巧
  • 知识图谱驱动测试用例生成,告别低效!