当前位置: 首页 > news >正文

langchain 创建智能体,并使用saver保存会话消息

简单创建智能体并调用

""" 可参考官方文档地址:https://docs.langchain.com/oss/python/langchain/agents 智能体会遵循 ReAct(“推理+行动”)模式,交替进行简短的推理步骤和针对性工具调用,并将所得观察反馈到后续决策中,直到能够给出最终答案。 第一步:初始化测试用的工具 """fromlangchain_core.toolsimporttoolfrompydanticimportBaseModel,FieldclassAddInputArgs(BaseModel):a:float=Field(description="第一个数字",example=1)b:float=Field(description="第二个数字",example=2)@tool(description="对输入的两个数字执行加法运算",args_schema=AddInputArgs,return_direct=False)defadd(a,b)->float:returna+b""" 第二步:初始化大模型 这里直接初始化一个千问大模型 """importosfromlangchain_openaiimportChatOpenAIfromdotenvimportload_dotenv load_dotenv()llm=ChatOpenAI(model="qwen-max-latest",base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",api_key=os.getenv("DASHSCOPE_API_KEY"),streaming=True,)""" 第三步:创建智能体 通过 langchian.agent的create_agent方法 """fromlangchain.agentsimportcreate_agent agent=create_agent(model=llm,tools=[add],system_prompt="你是一个擅长计算的专家,你会使用数学工具完成计算")""" 第四步:调用智能体 """result=agent.invoke(input={"messages":[{"role":"user","content":"请计算1+2的值"}]})"""美化 打印result的消息列表"""formsginresult['messages']:t=type(msg).__name__ift=='HumanMessage':print(f"👤{msg.content}")elift=='AIMessage':ifhasattr(msg,'tool_calls')andmsg.tool_calls:fortoolinmsg.tool_calls:args=', '.join(f'{k}={v}'fork,vintool['args'].items())print(f"🤖 调用{tool['name']}({args})")elifmsg.content:print(f"🤖{msg.content}")elift=='ToolMessage':print(f"🔧{msg.name}{msg.content}")
控制台输出内容: 👤 请计算1+2的值 🤖 调用 add(a=1,b=2)🔧add3.0🤖 计算结果为\(1+2=3\)

使用Saver保存会话消息

langchian的对话消息,有多种保存方式,可以使用redis、MongoDB、或者写一个自定义saver保存到本地都是可以的

  • 在早期可以使用社区提供的ChatMessageHistory 来实现简单的会话消息保存,保存和提取的动作都需要自己维护
    后期官方提供了MemorySaver 这是完整的会话管理系统,langchian会自动处理一起

案例代码

""" agent会话保存 可以使用临时内存保存、也可以使用redis、MongoDB甚至是自己实现本地文件保存"""importasyncioimportjsonimportos from dotenvimportload_dotenv from langchain_core.messagesimportSystemMessage, HumanMessage, AIMessage from langchain_core.runnablesimportRunnableConfig from langchain.agentsimportcreate_agent load_dotenv()""" 第一步:定义Saver""" from langgraph.checkpoint.memoryimportMemorySaver memory_saver=MemorySaver()""" 第二步:初始化大模型""" from langchain_openaiimportChatOpenAI llm=ChatOpenAI(model="qwen-max-latest",base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",api_key=os.getenv("DASHSCOPE_API_KEY"),streaming=True,)""" 第三步:创建react Agent 并传入checkpointer""" agent=create_agent(model=llm,checkpointer=memory_saver,debug=True,system_prompt=SystemMessage(content="你是3DM的游戏助手,专注游戏问题"),)""" 第四步 创建RunnableConfig,用来传入ThreadId 也就是会话标识""" config=RunnableConfig(configurable={"thread_id":1},recursion_limit=100)""" 第五步 流式调用agent连续对话""" async def run_conversation(): print("="*50)print("游戏助手已启动!输入 'exit' 退出,输入 'history' 查看历史记录")print("="*50)conversation_history=[]# 本地存储对话历史whileTrue: user_input=input("\n用户:")# 退出命令ifuser_input.lower()=="exit":print("\n对话结束!")breakprint("\n助手:",end="",flush=True)try:# 流式异步调用大模型asyncforchunkinagent.astream(input={"messages":user_input},config=config):# 根据你提供的格式解析chunkawait process_chunk(chunk)except Exception as e: print(f"\n[错误] 调用大模型时出错: {e}")importtraceback traceback.print_exc()print()# 换行async def process_chunk(chunk):"""处理流式返回的chunk"""ifisinstance(chunk, dict):# 处理 [values] 类型的chunkif'messages'inchunk: print(f"\n[DEBUG] 收到消息chunk:")formsginchunk['messages']:ifhasattr(msg,'content'): print(f"[DEBUG] 消息类型: {type(msg).__name__}")print(f"[DEBUG] 消息内容: {msg.content[:100]}...")# 只显示前100字符# 处理 [updates] 类型的chunkelif'model'inchunk: model_updates=chunk.get('model',{})if'messages'inmodel_updates:formsginmodel_updates['messages']:ifisinstance(msg, AIMessage)and msg.content:# 这是AI的回复内容,打印出来print(msg.content,end="",flush=True)elifisinstance(msg, HumanMessage): print(f"\n[DEBUG] 用户消息: {msg.content}")else: print(f"\n[DEBUG] 其他消息类型: {type(msg).__name__}")# 打印完整的chunk结构用于调试else: print(f"\n[DEBUG] 完整chunk结构:")print(json.dumps(chunk,indent=2,default=str,ensure_ascii=False)[:500]+"...")elifhasattr(chunk,'__dict__'):# 处理对象类型的chunkprint(f"\n[DEBUG] 对象chunk: {type(chunk).__name__}")ifhasattr(chunk,'content'): print(f"[DEBUG] 内容: {chunk.content}")ifisinstance(chunk, AIMessage): print(chunk.content,end="",flush=True)elifisinstance(chunk, str):# 直接字符串内容print(chunk,end="",flush=True)else:# 其他类型print(f"\n[DEBUG] 未知chunk类型: {type(chunk)}")print(f"[DEBUG] 值: {chunk}")if__name__=='__main__':# 运行对话asyncio.run(run_conversation())
http://www.jsqmd.com/news/244226/

相关文章:

  • python基于vue的江西特色乡村综合风貌展示平台django flask pycharm
  • langchian 使用外部MCP工具创建自己的MCP服务
  • 【开题答辩全过程】以 基于Java的大学生兼职信息系统的设计与实现为例,包含答辩的问题和答案
  • 2026年强推新兴GEO服务商-微盟星启:抢占AI搜索心智打造品牌增长
  • Spring 中 Servlet 容器和 Python FastAPI 对比
  • 虎贲等考 AI:重构学术创作新范式,一站式智能论文写作解决方案
  • 揭秘Emmi AI每月人均千欧的远程团队协作模式
  • 拒稿率暴跌 90%!虎贲等考 AI 期刊论文功能:从初稿到录用的 “学术加速器”
  • langchain 常见提示词模板使用案例
  • 告别熬夜做 PPT!虎贲等考 AI PPT:学术汇报的 “一键焕新” 神器
  • langchain的工具调用
  • 销售要少夸赞自己实力强,多问问客户害怕什么
  • GetX 从 0 开始:理解 Flutter 的“对象级响应式系统”
  • 极致感知与定位:基于电鱼智能 RK3588 的 AMR 机器人高精度 vSLAM 导航方案
  • Java酒店管理系统(简易版)_java简易酒店管理系统
  • 电鱼智能 RK3576 实现商用清洁机器人的视觉避障与路径规划
  • 揭秘!这位吴忠羽球教练凭什么带出锦标赛亚军?答案藏在3大教学绝招里
  • 基于DCT变换图像去噪算法的终极优化(1920*1080灰度图单核约22ms)
  • 韩宁波的羽球哲学:用竞技场的热血浇灌,让每个学员都成为自己的冠军
  • 2026 毕业季硬核攻略:8 款 AI 毕业论文工具实测,paperzz 领衔解锁学术创作新姿势
  • python基于vue的流浪动物救助志愿者管理系统django flask pycharm
  • 基于 电鱼智能 RK3568 打造工业协作机械臂的一体化关节控制器
  • 吴忠羽球新势力!国家二级运动员韩宁波:用竞技基因解码进阶训练密码
  • python基于vue的咖啡点单程序设计django flask pycharm
  • 全网最全9个AI论文软件,专科生搞定毕业论文必备!
  • 电鱼智能 RK3399 赋能配送机器人的多屏交互与人脸识别支付
  • 冠军教练的「双面人生」:韩宁波以赛场荣誉为基石,筑就吴忠羽毛球学习新范式
  • [特殊字符]收藏!留学生大模型薪资曝光:55k起、140w总包,2026归国潮AI岗位全攻略
  • 宁夏羽球教育新标杆:韩宁波的「三维教学法」如何让学员技术体能双飞跃
  • 建议大家都去油管学AI Agent,真的能打破信息差!!