当前位置: 首页 > news >正文

收藏 | 新手程序员必看:掌握大模型记忆系统,让AI Agent更智能!

随着AI Agent的快速发展,记忆系统成为构建实用AI Agent的关键技术。本文介绍了记忆系统的基本概念、分类以及不同Agent框架中的实现方式。重点讲解了短期记忆和长期记忆的交互机制,以及短期记忆的上下文工程策略,包括上下文缩减、卸载和隔离等。此外,还分析了长期记忆的技术架构、与RAG的区别,以及面临的挑战和行业趋势。对于想要深入了解大模型记忆系统的程序员来说,本文提供了全面的指导和实践建议。

一、Memory 基础概念

1.1 记忆的定义与分类

对于 AI Agent 而言,记忆至关重要,因为它使它们能够记住之前的互动、从反馈中学习,并适应用户的偏好。

对“记忆”的定义有两个层面:

  • 会话级记忆:用户和智能体 Agent 在一个会话中的多轮交互(user-query & response)
  • 跨会话记忆:从用户和智能体 Agent 的多个会话中抽取的通用信息,可以跨会话辅助 Agent 推理

1.2 各 Agent 框架的定义差异

各个 Agent 框架对记忆的概念命名各有不同,但共同的是都遵循上一节中介绍的两个不同层面的划分:会话级和跨会话级。

框架说明:

  • Google ADK:Session 表示单次持续交互;Memory 是长期知识库,可包含来自多次对话的信息
  • LangChain:Short-term memory 用于单线程或对话中记住之前的交互;Long-term memory 不属于基础核心组件,而是高阶的“个人知识库”外挂
  • AgentScope:虽然官方文档强调需求驱动,但 API 层面仍然是两个组件(memory 和 long_term_memory),功能层面有明确区分

习惯上,可以将会话级别的历史消息称为短期记忆,把可以跨会话共享的信息称为长期记忆,但本质上两者并不是通过简单的时间维度进行的划分,从实践层面上以是否跨 Session 会话来进行区分。长期记忆的信息从短期记忆中抽取提炼而来,根据短期记忆中的信息实时地更新迭代,而其信息又会参与到短期记忆中辅助模型进行个性化推理。

二、Agent 框架集成记忆系统的架构

各 Agent 框架在集成记忆系统时,虽然实现细节不同,但都遵循相似的架构模式。理解这些通用模式有助于更好地设计和实现记忆系统。

2.1 Agent 框架集成记忆的通用模式

各 Agent 框架集成记忆系统通常遵循以下通用模式:

1. Step1:推理前加载 - 根据当前 user-query 从长期记忆中加载相关信息

2. Step2:上下文注入 - 从长期记忆中检索的信息加入当前短期记忆中辅助模型推理

3. Step3:记忆更新 - 短期记忆在推理完成后加入到长期记忆中

4. Step4:信息处理 - 长期记忆模块中结合 LLM+向量化模型进行信息提取和检索

2.2 短期记忆(Session 会话)

短期记忆存储会话中产生的各类消息,包括用户输入、模型回复、工具调用及其结果等。这些消息直接参与模型推理,实时更新,并受模型的 maxToken 限制。当消息累积导致上下文窗口超出限制时,需要通过上下文工程策略(压缩、卸载、摘要等)进行处理,这也是上下文工程主要处理的部分。

核心特点:

  • 存储会话中的所有交互消息(用户输入、模型回复、工具调用等)
  • 直接参与模型推理,作为 LLM 的输入上下文
  • 实时更新,每次交互都会新增消息
  • 受模型 maxToken 限制,需要上下文工程策略进行优化

关于短期记忆的上下文工程策略(压缩、卸载、摘要等),将在下一章节中详细介绍。

2.3 长期记忆(跨会话)

长期记忆与短期记忆形成双向交互:一方面,长期记忆从短期记忆中提取“事实”、“偏好”、“经验”等有效信息进行存储(Record);另一方面,长期记忆中的信息会被检索并注入到短期记忆中,辅助模型进行个性化推理(Retrieve)。

与短期记忆的交互:

  • Record(写入):从短期记忆的会话消息中提取有效信息,通过LLM进行语义理解和抽取,存储到长期记忆中
  • Retrieve(检索):根据当前用户查询,从长期记忆中检索相关信息,注入到短期记忆中作为上下文,辅助模型推理

实践中的实现方式:

在 Agent 开发实践中,长期记忆通常是一个独立的第三方组件,因为其内部有相对比较复杂的流程(信息提取、向量化、存储、检索等)。常见的长期记忆组件包括 Mem0、Zep、Memos、ReMe 等,这些组件提供了完整的 Record 和 Retrieve 能力,Agent 框架通过 API 集成这些组件。

信息组织维度:

不同长期记忆产品在信息组织维度上有所差异:一些产品主要关注个人信息(个人记忆),而一些产品除了支持个人记忆外,还支持工具记忆、任务记忆等更丰富的维度。

  1. 用户维度(个人记忆):面向用户维度组织的实时更新的个人知识库
  • 用户画像分析报告
  • 个性化推荐系统,千人千面
  • 处理具体任务时加载至短期记忆中
  1. 业务领域维度:沉淀的经验(包括领域经验和工具使用经验)
  • 可沉淀至领域知识库
  • 可通过强化学习微调沉淀至模型

三、短期记忆的上下文工程策略

短期记忆直接参与 Agent 和 LLM 的交互,随着对话历史增长,上下文窗口会面临 token 限制和成本压力。上下文工程策略旨在通过智能化的压缩、卸载和摘要技术,在保持信息完整性的同时,有效控制上下文大小。

备注:需要说明的是,各方对上下文工程的概念和理解存在些许差异。狭义的上下文工程特指对短期记忆(会话历史)中各种压缩、摘要、卸载等处理机制,主要解决上下文窗口限制和 token 成本问题;广义的上下文工程则包括更广泛的上下文优化策略,如非运行态的模型选择、Prompt 优化工程、知识库构建、工具集构建等,这些都是在模型推理前对上下文进行优化的手段,且这些因素都对模型推理结果有重要影响。本章节主要讨论狭义的上下文工程,即针对短期记忆的运行时处理策略。

3.1 核心策略

针对短期记忆的上下文处理,主要有以下几种策略:

上下文缩减(Context Reduction)

上下文缩减通过减少上下文中的信息量来降低 token 消耗,主要有两种方法:

1. 保留预览内容:对于大块内容,只保留前 N 个字符或关键片段作为预览,原始完整内容被移除

2. 总结摘要:使用 LLM 对整段内容进行总结摘要,保留关键信息,丢弃细节

这两种方法都会导致信息丢失,但能有效减少 token 消耗。

上下文卸载(Context Offloading)

上下文卸载主要解决被缩减的内容是否可恢复的问题。当内容被缩减后,原始完整内容被卸载到外部存储(如文件系统、数据库等),消息中只保留最小必要的引用(如文件路径、UUID 等)。当需要完整内容时,可以通过引用重新加载。

优势:上下文更干净,占用更小,信息不丢,随取随用。适用于网页搜索结果、超长工具输出、临时计划等占 token 较多的内容。

上下文隔离(Context Isolation)

通过多智能体架构,将上下文拆分到不同的子智能体中(类似单体拆分称多个微服务)。主智能体编写任务指令,发送给子智能体,子智能体的整个上下文仅由该指令组成。子智能体完成任务后返回结果,主智能体不关心子智能体如何执行,只需要结果。

适用场景:任务有清晰简短的指令,只有最终输出才重要,如代码库中搜索特定片段。

优势:上下文小、开销低、简单直接。

策略选择原则:

以上三种策略(上下文缩减、上下文卸载、上下文隔离)需要根据数据的分类进行综合处理,主要考虑因素包括:

  • 时间远近:近期消息通常更重要,需要优先保留;历史消息可以优先进行缩减或卸载;
  • 数据类型:不同类型的消息(用户输入、模型回复、工具调用结果等)重要性不同,需要采用不同的处理策略;
  • 信息可恢复性:对于需要完整信息的内容,应优先使用卸载策略;对于可以接受信息丢失的内容,可以使用缩减策略;

3.2 各框架的实现方式

各框架一般内置上下文处理策略,通过参数化配置的方式指定具体策略。

Google ADK

构建 Agent 时通过 events_compaction_config设置上下文处理策略,和 Session 本身的数据存储独立。

from google.adk.apps.app import App, EventsCompactionConfig app = App( name='my-agent', root_agent=root_agent, events_compaction_config=EventsCompactionConfig( compaction_interval=3, # 每3次新调用触发压缩 overlap_size=1 # 包含前一个窗口的最后一次调用 ), )
LangChain

构建 Agent 时通过 middleware 机制中的 SummarizationMiddleware设置上下文处理参数,与短期记忆本身的数据存储独立。

from langchain.agents import create_agent from langchain.agents.middleware import SummarizationMiddleware agent = create_agent( model="gpt-4o", tools=[...], middleware=[ SummarizationMiddleware( model="gpt-4o-mini", max_tokens_before_summary=4000, # 4000 tokens时触发摘要 messages_to_keep=20, # 摘要后保留最后20条消息 ), ], )
AgentScope

AgentScope 通过AutoContextMemory提供智能化的上下文工程解决方案。AutoContextMemory 实现了 Memory接口,当对话历史超过配置阈值时,自动应用 6 种渐进式压缩策略(从轻量级到重量级)来减少上下文大小,同时保留重要信息。

集成方式:

  • 直接作为 Memory接口实现,通过 memory参数集成到 Agent 中;
  • 与框架深度集成,无需额外的 middleware 或独立配置;

与 ADK 和 LangChain 的差异:

  • 更精细化的压缩策略:提供 6 种渐进式压缩策略(压缩历史工具调用、卸载大型消息、摘要对话轮次等),相比 ADK 的简单压缩和 LangChain 的摘要 middleware,策略更加细化和可控;
  • 集成方式:直接实现 Memory 接口,与 Agent 构建流程无缝集成,而 ADK 和 LangChain 需要独立的配置对象或 middleware 机制;
  • 完整可追溯性:提供工作内存、原始内存、卸载上下文和压缩事件四层存储架构,支持完整历史追溯,而其他框架通常只提供压缩后的结果。

使用示例:

AutoContextMemory memory = new AutoContextMemory( AutoContextConfig.builder() .msgThreshold(100) .maxToken(128 * 1024) .tokenRatio(0.75) .build(), model ); ReActAgent agent = ReActAgent.builder() .name("Assistant") .model(model) .memory(memory) .build();

四、长期记忆技术架构及 Agent 框架集成

与短期记忆不同,长期记忆需要跨会话持久化存储,并支持高效的检索和更新。这需要一套完整的技术架构,包括信息提取、向量化存储、语义检索等核心组件。

4.1 核心组件

长期记忆涉及 record & retrieve 两个核心流程,需要以下核心组件:

1. LLM 大模型:提取短期记忆中的有效信息(记忆的语义理解、抽取、决策和生成);

2. Embedder 向量化:将文本转换为语义向量,支持相似性计算;

3. VectorStore 向量数据库:持久化存储记忆向量和元数据,支持高效语义检索;

4. GraphStore 图数据库:存储实体-关系知识图谱,支持复杂关系推理;

5. Reranker(重排序器):对初步检索结果按语义相关性重新排序;

6. SQLite:记录所有记忆操作的审计日志,支持版本回溯;

4.2 Record & Retrieve 流程

Record(记录)
LLM 事实提取 → 信息向量化 → 向量存储 →(复杂关系存储)→ SQLite 操作日志
Retrieve(检索)
User query 向量化 → 向量数据库语义检索 → 图数据库关系补充 →(Reranker-LLM)→ 结果返回

4.3 长期记忆与 RAG 的区别

像 Mem0 这类面向 AI Agent 的个性化长期记忆系统,与 RAG(Retrieval-Augmented Generation)在技术架构上有诸多相似之处,但功能层面和场景上有明显区别:

技术层面的相似点:

1. 向量化存储:都将文本内容通过 Embedding 模型转为向量,存入向量数据库;

2. 相似性检索:在用户提问时,将当前 query 向量化,在向量库中检索 top-k 最相关的条目;

3. 注入上下文生成:将检索到的内容注入到模型交互上下文中,辅助 LLM 生成最终回答;

4.4 关键问题与挑战

长期记忆系统在实际应用中面临诸多挑战,这些挑战直接影响系统的可用性和用户体验。

1. 准确性

记忆的准确性包含两个层面:

  • 有效的记忆管理:需要具备智能的巩固、更新和遗忘机制,这主要依赖于记忆系统中负责信息提取的模型能力和算法设计;
  • 记忆相关性的检索准确度:主要依赖于向量化检索&重排的核心能力;

核心挑战:

  • 记忆的建模:需要完善强大的用户画像模型;
  • 记忆的管理:基于用户画像建模算法,提取有效信息,设计记忆更新机制;
  • 向量化相关性检索能力:提升检索准确率和相关性;
2. 安全和隐私

记忆系统记住了大量用户隐私信息,如何防止数据中毒等恶意攻击,并保障用户隐私,是必须解决的问题。

核心挑战:

  • 数据加密与访问控制
  • 防止恶意数据注入
  • 透明的数据管理机制
  • 用户对自身数据的掌控权
3. 多模态记忆支持

文本记忆、视觉、语音仍被孤立处理,如何构建统一的“多模态记忆空间”仍是未解难题。

核心挑战:

  • 跨模态关联与检索
  • 统一的多模态记忆表示
  • 毫秒级响应能力

4.5 Agent 框架集成

在 AgentScope 中,可以通过集成第三方长期记忆组件来实现长期记忆功能。常见的集成方式包括:

4.5.1 集成 Mem0

Mem0 是一个开源的长期记忆框架,几乎成为事实标准。在 AgentScope 中集成 Mem0 的示例:

// 初始化Mem0长期记忆 Mem0LongTermMemory mem0Memory = new Mem0LongTermMemory( Mem0Config.builder() .apiKey("your-mem0-api-key") .build() ); // 创建Agent并集成长期记忆 ReActAgent agent = ReActAgent.builder() .name("Assistant") .model(model) .memory(memory) // 短期记忆 .longTermMemory(mem0Memory) // 长期记忆 .build();
4.5.2 集成 ReMe

ReMe 是 AgentScope 官方提供的长期记忆实现,与框架深度集成:

// 初始化ReMe长期记忆 ReMeLongTermMemory remeMemory = ReMeLongTermMemory.builder() .userId("user123") // 用户ID,用于记忆隔离 .apiBaseUrl("http://localhost:8002") // ReMe服务地址 .build(); // 创建Agent并集成长期记忆 ReActAgent agent = ReActAgent.builder() .name("Assistant") .model(model) .memory(memory) // 短期记忆 .longTermMemory(remeMemory) // 长期记忆 .longTermMemoryMode(LongTermMemoryMode.BOTH) // 记忆模式 .build();

五、行业趋势与产品对比

5.1 AI 记忆系统发展趋势

AI 记忆系统的核心目标是让 AI 能像人类一样持续学习、形成长期记忆,从而变得更智能、更个性化。当前行业呈现出从研究原型向生产级系统演进、从单一技术向综合解决方案发展的趋势。

5.1.1 当前发展的核心脉络

5.1.2 技术发展趋势

记忆即服务(Memory-as-a-Service, MaaS)

AI Agent 是大模型、记忆、任务规划以及工具使用的集合体,记忆管理将是 Agent 智能体的核心基础功能之一。类似“数据库”之于传统软件,记忆系统将成为 AI 应用的基础设施,提供标准化的记忆服务接口、可扩展的存储和检索能力。

精细化记忆管理

借鉴人脑记忆机制,构建分层动态的记忆架构,对记忆进行全生命周期管理。技术路径包括:LLM 驱动记忆提取 + 向量化存储 + 图数据库补充;向量化检索(海马体)+ LLM 提纯(大脑皮层)结合;通过强化学习提升记忆管理表现。

多模态记忆系统

多模态大模型的兴起推动记忆系统向多模态、跨模态方向发展,要求存储具备跨模态关联与毫秒级响应能力。

参数化记忆(Model 层集成记忆)

在 Transformer 架构中引入可学习的记忆单元 Memory Adapter,实现模型层面原生支持用户维度的记忆。优点是响应速度快,但面临“灾难性遗忘”和更新成本高的挑战。

5.1.3 当前主要的技术路径

1. 外部记忆增强(当前主流):使用向量数据库等外部存储来记忆历史信息,并在需要时通过检索相关信息注入当前对话。这种方式灵活高效,检索的准确性是关键。

2. 参数化记忆(深度内化):直接将知识编码进模型的参数中。这可以通过模型微调、知识编辑等技术实现,优点是响应速度快,但面临“灾难性遗忘”和更新成本高的挑战。

5.2 相关开源产品对比

关于各产品的具体数据指标对比,评测方式各有侧重,因此评测结果不尽相同,从实际情况看,各方均以 mem0 为评测基准,从各类技术指标评测结果以及开源社区的活跃度(star,issues 等)方面,mem0 仍然是占据长期记忆产品的领头地位。

结语

记忆系统作为 AI Agent 的核心基础设施,其发展直接影响着智能体的能力和用户体验。现在各框架内置的压缩、卸载、摘要等策略,已经能解决 80-90% 的通用场景问题,但对于特定行业或场景,比如医疗、法律、金融等领域,基于通用的上下文处理策略基础之上进行针对性的处理和更精细的压缩 prompt 设计,仍然有较大的优化空间。而长期记忆作为可独立演进的组件,未来会更加贴近人脑的记忆演化模式,包括记忆的巩固、强化、遗忘等全生命周期管理,同时长期记忆应该以云服务模式提供通用的记忆服务,共同助力 Agent 迈向更高阶的智能。

那么如何学习大模型 AI ?

对于刚入门大模型的小白,或是想转型/进阶的程序员来说,最头疼的就是找不到系统、全面的学习资源,要么零散不成体系,要么收费高昂,白白浪费时间走弯路。今天就给大家精心整理了一份全面且免费的AI大模型学习资源包,覆盖从入门到实战、从理论到面试的全流程,所有资料均已整理完毕,免费分享给各位!

核心包含:AI大模型全套系统化学习路线图(小白可直接照做)、精品学习书籍+电子文档、干货视频教程、可直接上手的实战项目+源码、2026大厂面试真题题库,一站式解决你的学习痛点,不用再到处搜集拼凑!

👇👇扫码免费领取全部内容👇👇

1、大模型系统化学习路线

学习大模型,方向比努力更重要!很多小白入门就陷入“盲目看视频、乱刷资料”的误区,最后越学越懵。这里给大家整理的这份学习路线,是结合2026年大模型行业趋势和新手学习规律设计的,最科学、最系统,从零基础到精通,每一步都有明确指引,帮你节省80%的无效学习时间,少走弯路、高效进阶。

2、大模型学习书籍&文档

理论是实战的根基,尤其是对于程序员来说,想要真正吃透大模型原理,离不开优质的书籍和文档支撑。本次整理的书籍和电子文档,均由大模型领域顶尖专家、大厂技术大咖撰写,涵盖基础入门、核心原理、进阶技巧等内容,语言通俗易懂,既有理论深度,又贴合实战场景,小白能看懂,程序员能进阶,为后续实战和面试打下坚实基础。

3、AI大模型最新行业报告

无论是小白了解行业、规划学习方向,还是程序员转型、拓展业务边界,都需要紧跟行业趋势。本次整理的2026最新大模型行业报告,针对互联网、金融、医疗、工业等多个主流行业,系统调研了大模型的应用现状、发展趋势、现存问题及潜在机会,帮你清晰了解哪些行业更适合大模型落地,哪些技术方向值得重点深耕,避免盲目学习,精准对接行业需求。值得一提的是,报告还包含了多模态、AI Agent等前沿方向的发展分析,助力大家把握技术风口。

4、大模型项目实战&配套源码

对于程序员和想落地能力的小白来说,“光说不练假把式”,只有动手实战,才能真正巩固所学知识,将理论转化为实际能力。本次整理的实战项目,涵盖基础应用、进阶开发、多场景落地等类型,每个项目都附带完整源码和详细教程,从简单的ChatPDF搭建,到复杂的RAG系统开发、大模型部署,难度由浅入深,小白可逐步上手,程序员可直接参考优化,既能练手提升技术,又能丰富简历,为求职和职业发展加分。

5、大模型大厂面试真题

2026年大模型面试已从单纯考察原理,转向侧重技术落地和业务结合的综合考察,很多程序员和新手因为缺乏针对性准备,明明技术不错,却在面试中失利。为此,我精心整理了各大厂最新大模型面试真题题库,涵盖基础原理、Prompt工程、RAG系统、模型微调、部署优化等核心考点,不仅有真题,还附带详细解题思路和行业踩坑经验,帮你精准把握面试重点,提前做好准备,面试时从容应对、游刃有余。

6、四阶段精细化学习规划(附时间节点,可直接照做)

结合上述资源,给大家整理了一份可直接落地的四阶段学习规划,总时长约2个月,小白可循序渐进,程序员可根据自身基础调整节奏,高效掌握大模型核心能力,快速实现从“入门”到“能落地、能面试”的跨越。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

👇👇扫码免费领取全部内容👇👇

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

http://www.jsqmd.com/news/685137/

相关文章:

  • 解决RDK X(ARM架构)板卡Remote-SSH运行Antigravity AI崩溃(SIGILL):Samba网络盘本地挂载方案
  • RT-Thread LVGL开发实战指南
  • 从萌新到大神!CTF 零基础超全入门攻略,收藏这一篇就够了
  • 新手必藏!2026 CTF 零基础入门科普,赛制、题型、解题逻辑全解析
  • 2026年3月礼品盒批发厂家推荐,礼品盒/节庆礼盒/特产礼盒/高档礼盒/手提礼盒/天地盖礼盒,礼品盒门店选哪家 - 品牌推荐师
  • 如何用 childNodes 与 children 区分文本节点与元素子节点
  • 005、PCIE拓扑结构:点对点、交换与层次
  • 基于LLM与RAG技术的智能销售助手开发实战
  • 微信小程序获取用户位置并显示详细地址的完整流程(附腾讯地图SDK配置避坑)
  • 统计学习与不确定性量化在AI可靠性中的应用
  • 2026年成都雅思培训机构排行:成都小托福培训,成都托福培训学校,成都托福培训课程,成都托福培训费用,优选指南! - 优质品牌商家
  • Transformer中线性层与激活函数的工程实践
  • Qt信号量QSemaphore避坑指南:release了但acquire还在阻塞?可能是这5个原因
  • 006、PCIE物理层基础:通道、速率与编码
  • CSS如何处理@import样式表的嵌套加载_评估递归对加载的影响
  • Phi-3.5-mini-instruct部署案例:单卡4090运行双语客服系统的完整流程
  • Propius平台:解决协同机器学习中的资源调度与通信效率挑战
  • 838. 推多米诺
  • CubeMX+正点原子RGB屏终极优化:如何让LTDC刷新率稳定跑满45MHz?
  • 2026年成都托福培训TOP5机构排行 中立选型参考 - 优质品牌商家
  • 如何自动同步SQL多语言字段_通过触发器实现国际化更新
  • 基于Testbed的车载ECU软件集成测试方法研究
  • 量子计算在锕系化学模拟中的应用与优化
  • Vue 转 React:揭秘样式语言是如何被 VuReact 编译的?
  • 如何轻松下载M3U8视频?这款开源图形界面工具让你告别复杂命令行
  • 小白/程序员入门必看:收藏这份AB实验Agent实战指南,手把手教你用Claude Code快速搭建
  • 杰理AC6329C4蓝牙5.0 MCU深度评测与应用实战
  • 别再死记硬背了!华为交换机日常运维,这10条display命令搞定80%的活儿
  • 2026-04-23:树中子图的最大得分。用go语言,给定一棵无向树(共 n 个节点,编号 0 到 n-1),树的边由数组 edges 描述:edges 长度为 n-1,edges[i] = [a,
  • 国产化Docker集群部署秘籍(飞腾+麒麟+达梦组合实测):从离线安装到国密SM4镜像签名全流程