当前位置: 首页 > news >正文

【LangChain4J】聊天记忆-高阶Api

聊天记忆官网

记忆和历史

  • 历史记录会完整保存用户与人工智能之间的所有消息。历史记录就是用户在用户界面中看到的内容,它代表了实际发生过的所有对话。
  • 内存会保留一些信息,这些信息会呈现给 LLM(生命周期管理模型),使其表现得好像“记住”了对话。内存与历史记录截然不同。根据所使用的内存算法,它可以以各种方式修改历史记录:例如,删除一些消息、汇总多条消息、汇总单个消息、移除消息中不重要的细节、向消息中注入额外信息(例如,用于 RAG 算法)或指令(例如,用于结构化输出)等等。

LangChain4j 目前仅提供“内存”管理,不提供“历史记录”管理。如果您需要保留完整的历史记录,请手动操作。

淘汰策略

  • 为了适应 LLM 的上下文窗口,LLM 一次可以处理的令牌数量是有上限的。在某些情况下,对话可能会超过这个限制。在这种情况下,应该移除一些消息。通常情况下,会移除最旧的消息,但如有必要,也可以实现更复杂的算法。
  • 为了控制成本。每个令牌都有成本,因此每次调用 LLM 的成本都会逐渐增加。清除不必要的消息可以降低成本。
  • 为了控制延迟。发送到 LLM 的令牌越多,处理它们所需的时间就越长。

目前,LangChain4j 提供了 2 种开箱即用的实现方式:

  • 较简单的版本MessageWindowChatMemory以滑动窗口的形式运行,保留N最新消息并移除不再适合显示的旧消息。然而,由于每条消息可能包含数量不等的标记,因此 MessageWindowChatMemory它主要用于快速原型开发。
  • 更复杂的方法是TokenWindowChatMemory使用滑动窗口,它专注于保留N最新的标记,并根据需要移除较旧的消息。消息是不可分割的。如果消息不适合滑动窗口,则会被完全移除。 TokenWindowChatMemory需要使用 TokenCountEstimatorcount 来统计每个窗口中的标记数量ChatMessage。

代码实现

//接口类
public interface ChatMemoryAssistant {String chatMemory(@MemoryId Long userId, @UserMessage String prompt);
}
//配置类,注入实现ChatMemoryAssistant的方式
@Configuration
public class LLMConfig {@Beanpublic ChatModel chatModel(){return OpenAiChatModel.builder().apiKey(System.getenv("DASHSCOPE_API_KEY")).modelName("qwen-long").baseUrl("https://dashscope.aliyuncs.com/compatible-mode/v1").build();}@Bean("chatMemoryWindow")public ChatMemoryAssistant chatMemoryByWindow(ChatModel chatModel){return AiServices.builder(ChatMemoryAssistant.class).chatModel(chatModel).chatMemoryProvider(memoryId -> MessageWindowChatMemory.withMaxMessages(100)).build();}@Bean("chatMemoryToken")public ChatMemoryAssistant chatMemoryByToken(ChatModel chatModel){TokenCountEstimator tokenCountEstimator = new OpenAiTokenCountEstimator("gpt-4");return AiServices.builder(ChatMemoryAssistant.class).chatModel(chatModel).chatMemoryProvider(memoryId -> TokenWindowChatMemory.withMaxTokens(100000,tokenCountEstimator)).build();}
}

接口调用

@RestController
public class ChatMemoryController {@Resource(name = "chatMemoryWindow")private ChatMemoryAssistant windowChatMemoryAssistant;@Resource(name = "chatMemoryToken")private ChatMemoryAssistant tokenChatMemoryAssistant;@GetMapping("/chat/memory1")public String chatMemory1(){windowChatMemoryAssistant.chatMemory(1L,"你的名字叫爱吃鱼的大灰狼");String result = windowChatMemoryAssistant.chatMemory(1L, "你叫什么名字");windowChatMemoryAssistant.chatMemory(2L,"你的名字叫安静的狮子");String result2 = windowChatMemoryAssistant.chatMemory(2L, "你叫什么名字");return result + "\r\n" + result2;}@GetMapping("/chat/memory2")public String chatMemory2(){tokenChatMemoryAssistant.chatMemory(3L,"你的名字叫爱吃鱼的大灰狼");String result = tokenChatMemoryAssistant.chatMemory(3L, "你叫什么名字");tokenChatMemoryAssistant.chatMemory(4L,"你的名字叫安静的狮子");String result2 = tokenChatMemoryAssistant.chatMemory(4L, "你叫什么名字");return result + "\r\n" + result2;}
}
http://www.jsqmd.com/news/111474/

相关文章:

  • 详细介绍:雪花id改多workerID依赖redis
  • 最小二乘问题详解9:使用Ceres求解非线性最小二乘
  • 第六十三篇
  • ArchLinux 开机自动打开 NumLock
  • P5782 [POI 2001] 和平委员会
  • 1. Markdown语法
  • 斯特林数杂谈
  • [Non] - 选举
  • 浅析Cursor Rules了解(工作原理、四种规则类型对比、文件结构、分层设计)及如何在项目中使用的最佳实践
  • 辛普森法则
  • GitCode克隆输入账号密码后报错
  • 《嘟嘟脸恶作剧》:说是捏脸,你还真捏脸啊?
  • [生存技能] 速冻包子热处理工艺优化研究:基于家庭厨房环境的操作规程
  • 英语_阅读_if Your computer broke down_待读
  • 《C语言电子书-2026最新版》-C语言数据类型概述
  • RadeGS——PCC损失
  • FFmpeg 关键的结构体
  • 优化:三数之和,最接近的三数之和
  • 自动化机器学习AutoML:TPOT工具从零到实战完整使用教程
  • 实用指南:GitHub 热榜项目 - 日榜(2025-11-20)
  • JAVA国际版同城跑腿源码快递代取帮买帮送同城服务源码支持Android+IOS+H5 - 实践
  • 第六十二篇
  • RadeGS——添加法向量损失
  • 12月18日总结 - 作业----
  • XSS(跨站脚本攻击)
  • 自考ScrumMaster-PSM:经验分享~
  • Python - dataclass
  • P1330 封锁阳光大学
  • 9 个降AI率工具,研究生必看!
  • [POI 2021/2022 R1] Domino 题解