当前位置: 首页 > news >正文

大模型的短期记忆和长期记忆系统:做 RAG、Agent、知识库前的必修课

模型如何记住? 短期与长期记忆的两条解法

大语言模型本质上是"无状态的函数"——每一次推理都是一次独立的计算。 让模型"有记忆",需要在单次对话内跨对话之间同时动手。

00

一张图读懂整体格局

可以借用计算机"存储层级"的思维:越靠近 CPU 的越快但越小,越远离的越大但越慢。大模型的记忆系统完全对应这种金字塔。

FIG · 00 — MEMORY HIERARCHY

短期 VS 长期 · 类比计算机存储层级

核心洞察:短期记忆处理"当下",长期记忆处理"历史与世界知识"。两者并非替代关系,而是协同——长期记忆负责"知道什么",短期记忆负责"此刻在想什么"。

01

短期记忆 —算力侧的战斗

短期记忆的瓶颈是算力与显存:Transformer 的自注意力复杂度是 O(n²),每多一个 token 都在放大代价。所有解法都在回答同一个问题——如何让模型用更少资源看到更多 token。

CONCEPT短期记忆 = ?

模型在"单次推理"内能访问的全部信息

本质上是 Transformer 的注意力输入。一旦请求结束,这段记忆就消失了——除非你再传一遍。

承载形式有三层:当前 token 的激活值(最易失)→KV Cache(生成时复用)→Context Window 中的原始 token(本轮可回看)。

CONSTRAINT核心约束

两堵墙:O(n²) 计算 + KV Cache 显存

注意力计算与序列长度呈平方增长。100K token 的上下文,相当于做一张 100K×100K 的注意力矩阵。

KV Cache则与长度呈线性增长,但在多头、多层下绝对值巨大——一个 70B 模型、128K 上下文的 KV Cache 可占用几十 GB 显存。

FIG · 01A — TRANSFORMER 的短期记忆流

CONTEXT WINDOW · KV CACHE · 自回归生成

六种解法 · 把注意力变便宜

01 / 攻 O(N²) 高效注意力 Efficient Attention 用 Sliding Window(Mistral)、Sparse Attention(Longformer)、Linear Attention等,把平方复杂度降到近线性。FlashAttention 在硬件层把 I/O 降一个数量级。02 / 压 KV CACHE 共享 / 压缩键值 GQA · MQA · MLA GQA/MQA让多头共享 K/V(Llama 3、Mistral 的标配)。MLA(DeepSeek)用低秩投影把 Cache 再砍一半。直接效果:同样显存能装下更长上下文。
03 / 骗位置 外推位置编码 RoPE · ALiBi · YaRN 训练时只见过 8K,推理时要处理 128K?靠 RoPE 缩放、YaRN、ALiBi让位置信号线性外推,把短上下文模型拉长,不用重训。04 / 舍弃与摘要 上下文压缩 Context Compression 当历史超过窗口:驱逐策略(H₂O、StreamingLLM 保留 attention sink + recent)、LLM 自摘要、token 蒸馏(LLMLingua 压到 1/10)。本质都是有损压缩。
05 / 切块并行 长上下文训练 Ring / Sequence Parallel 训百万级上下文要把序列切到多卡:Ring Attention、Sequence Parallelism让显存上限从单卡升级为整个集群。06 / 状态空间替代 Mamba / SSM 类 Recurrent State 跳出 Transformer:用状态空间模型把历史压进一个固定大小的隐状态。推理 O(n) 且无 KV Cache——代价是精确回看能力变弱。

本质判断 · SHORT-TERM

短期记忆的解法全部围绕一个不等式展开——「想看到的 token 数vsGPU 能承受的计算与显存」。过去两年的所有进展(FlashAttention、MLA、Mamba、百万上下文),都是在不断把这个不等式往"看得更多"那一侧推。

02

长期记忆 —系统侧的工程

长期记忆的瓶颈不在算力,而在**“什么时候记、记成什么格式、在哪里存、怎么把它找回来”**。它本质上是 LLM 之外的一整套信息检索 + 存储系统。

CONCEPT长期记忆 = ?

跨越单次推理的持久化知识

分两大类:参数化记忆(压进模型权重里的"世界知识")和非参数化记忆(存在外部库里,用时再拉进来)。

前者快但死板,后者灵活但依赖检索——几乎所有严肃产品都是两者混合。

TRADE-OFF核心权衡

可更新性 × 可追溯性 × 延迟

参数化记忆:更新要重训或微调(慢、贵、易遗忘旧知识);出了错很难解释。

外部记忆:可以随时增删改查,每条信息都能追回出处;但多一次检索就多一层延迟,检索质量直接决定输出质量。

FIG · 02A — RAG 架构

RETRIEVAL-AUGMENTED GENERATION · 最主流的长期记忆方案

FIG · 02B — AGENT 记忆系统

受 MEMGPT 启发 · 分层记忆 + 自我写入/检索

六种解法 · 让信息回得来

01 / 压进权重 参数化记忆 Pretraining · Fine-tuning 预训练把全网知识压进权重。SFT / LoRA把特定领域或风格继续固化。适合稳定、通用的知识——不适合昨天刚发生的事。02 / 外挂向量库 RAG Retrieval-Augmented Generation 最成熟的工业方案。文档→分块→Embedding→向量库,查询时召回 top-k 塞进上下文。配合 Rerank、Hybrid Search、父子块可大幅提升召回质量。
03 / 分层管理 Agent 记忆系统 MemGPT · Letta 把上下文窗口当内存,外挂向量库当硬盘。LLM 自己决定何时写入长期、何时回读——「LLM 是 OS」的思想。04 / 结构化 知识图谱 GraphRAG · KG 向量检索擅长"相似"但不擅长"多跳推理"。把实体关系抽成图,GraphRAG用子图 + 社区摘要回答全局性问题。补向量之不足。
05 / 增量学习 持续微调 Continual Learning 用 LoRA / QLoRA高效增量适配。关键是对抗灾难性遗忘——EWC、Replay Buffer、Adapter 隔离都是为此而生。06 / 模型编辑 Knowledge Editing ROME · MEMIT 外科手术式改写权重。定位到承载这条知识的几层神经元,直接替换参数。比微调精准,但只适合少量、离散的事实更新。

本质判断 · LONG-TERM

长期记忆没有银弹。参数化记忆适合"稳的、通用的、不变的";RAG适合"多、杂、要引用、常变的";Agent 记忆系统适合"跨会话的个人化经验"。真实系统几乎全是三者拼起来的。

03

同框对照 —一张表讲透差异

做技术选型时,只需在这张表上对齐四个维度:容量、更新成本、访问延迟、可追溯性。

维度短期记忆长期记忆
载体激活值 · KV Cache · Context Window模型权重 · 向量库 · KG · 文件系统
生命周期单次请求内,结束即消失跨对话 · 跨会话 · 跨用户持久
容量128K ~ 2M token(随模型而定)理论无上限(TB ~ PB 级)
访问延迟极低(直接在 GPU 显存里)数十 ms ~ 秒级(检索+召回+读取)
更新成本零——每次重传即可向量库:低 · 权重:高(需训练)
可追溯性高——原始 token 就在上下文里RAG 高(有 source)· 权重低(黑箱)
核心技术FlashAttention · MLA/GQA · RoPE 外推 · 上下文压缩RAG · Fine-tune/LoRA · Agent Memory · KG
典型瓶颈O(n²) 计算 · KV Cache 显存检索召回率 · 知识一致性 · 遗忘
适用场景单轮复杂推理 · 长文档分析 · 代码仓库理解专业问答 · 个人助理 · 企业知识库 · 多轮 Agent

04

合流 —现代系统的混合架构

没有严肃产品只用一种记忆。下图是 2026 年一个典型 Agent 应用的记忆全栈——短期与长期在同一条推理链上分工协作。

FIG · 04 — 混合记忆全栈

HYBRID MEMORY STACK · 实际产品中短期与长期如何协作

FINAL TAKEAWAY

短期记忆是算力问题——被 GPU 硬件和 Transformer 架构约束,解法围绕"如何让注意力变便宜"。长期记忆是信息系统问题——被检索、存储、一致性约束,解法围绕"如何让该回来的信息回得来"。理解这个差别,选型就不会错。

学AI大模型的正确顺序,千万不要搞错了

🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!

有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!

就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋

📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇

学习路线:

✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经

以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!

我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

http://www.jsqmd.com/news/727328/

相关文章:

  • 物联网开发工具链容器化实践:基于Docker Compose的一站式部署方案
  • 对比直接使用原厂 API 体验 Taotoken 在多模型切换上的便捷性
  • 2026年AI代写泛滥,实测5款论文降AI神器:将AI率从80%拉至15% - 降AI实验室
  • 广东地区650T液态模锻设备厂商排行与选型指南 - 奔跑123
  • Vantage:基于MCP协议构建个人AI记忆中枢,打通AI工具信息孤岛
  • C语言类的基本语法详解
  • ARIMA模型保存与部署实战指南
  • 终极指南:如何用Obsidian Style Settings插件轻松自定义笔记外观
  • 别再只盯着模型结构了!用Python和PyTorch给你的模型推理加上TTA(测试时增强),轻松涨点几个百分点
  • 别乱用滤波!Zygo MetroPro软件里这9种滤波算法,到底该怎么选?(附实战对比图)
  • 终极小说下载解决方案:novel-downloader 深度解析与完全指南
  • 别再只用GO/KEGG了!用R语言做GSEA分析,轻松看懂通路是激活还是抑制
  • 4月30日成都地区包钢产热轧H型钢(1998-Q355B;100-1000mm)批发价格 - 四川盛世钢联营销中心
  • Fast-GitHub技术深度解析:如何实现10倍速的GitHub访问优化
  • Windows热键冲突终极排查指南:快速定位占用快捷键的幕后黑手
  • 终极Android滑动布局解决方案:ConsecutiveScrollerLayout让复杂界面丝滑如流
  • Her自定义请求:5种方式扩展你的API调用
  • 避坑指南:UE动画蓝图状态机变量设置与外部调用的那些事儿
  • 2026年深度改写模式和普通模式效果对比:降AI力度与文本保留度横评
  • 网盘直链下载助手终极指南:八大网盘一键获取真实下载链接,告别限速烦恼
  • 4月30日成都地区重钢产无缝钢管(8163-20#;外径38-114mm)批发价格 - 四川盛世钢联营销中心
  • 抖音直播数据采集终极指南:高效应对匿名用户与隐私保护挑战
  • 罗兰艺境“1+11”GEO技术落地,赋能上海制造隐形冠军 - 罗兰艺境GEO
  • Prusa-Firmware配置与定制化:打造专属3D打印体验
  • 保姆级教程:手把手教你用ADB Dumpsys命令深度分析Android应用状态(附查找秘籍)
  • ArchivePasswordTestTool:3分钟快速找回遗忘压缩包密码的终极免费方案
  • 智能网页数据抓取工具WebSeek的技术解析与应用
  • 告别白模!用Unity ProBuilder给你的场景原型快速上色与赋予材质(2021/2022版通用)
  • 使用Taotoken管理多项目API密钥并设置访问权限与审计
  • 全国冲孔板厂家排行:品质与供货能力实测对比 - 奔跑123