当前位置: 首页 > news >正文

如何用LangChain开发一个Agent,20分钟搞定!

26年一定是一个 Agent 大年,今天的重点是程序员最常用的 Agent 框架 LangChain。

只不过这东西可能由于 AI Coding 的成熟,由给人看变成给 AI 看的。

LangChain 既是一个开源的AI应用开发框架,也是其背后同名公司LangChain的统称。

该公司围绕AI应用开发构建了一套完整的产品矩阵,包括广受欢迎的开源框架LangChain、用于构建复杂状态机的LangGraph,以及企业级调试与监控平台LangSmith等。

其中,LangChain和LangGraph是社区中最活跃的两个开源项目。

需要特别说明的是,在LangChain 1.0版本之后,这两个框架的定位发生了重要变化:LangGraph 成为底层的智能体编排引擎,专注于有状态、多轮、高度定制化的智能体流程控制;

而LangChain 则在此基础上演变为上层应用开发框架,提供了更高阶的抽象、丰富的工具集成和便捷的智能体构建能力。

简单来说,LangChain 封装了 LangGraph 的复杂性,让开发者能够快速搭建标准智能体;而LangGraph 则为需要深度控制流程、自定义逻辑的场景提供了灵活的图式编程能力。

对于大多数智能体应用,比如本文将要构建的旅行智能助手,LangChain 已足够胜任,它简洁的API和开箱即用的组件能让我们更专注于业务逻辑本身:

注意1,本文中的langchain 的版本>=1.0

注意2,案例很简单,但一定要和前几篇文章对照阅读,才知道Agent是什么,才知道LangChain的意义

如何开发一个Agent

在上文中我们说了,开发智能体的核心,其实就三件事:模型 + 工具 + 记忆。

  1. 模型负责核心的推理决策;

  2. 工具用来落地执行具体的业务操作;

  3. 记忆则负责留存历史对话,给模型的推理提供足够的上下文支撑。

接下来,咱们就实操起来 ,看看怎么用 LangChain 实现模型调用、工具封装、会话记忆保存这些基础功能,最终完整开发出一个能跑起来的 AI Agent。

模型调用

lagnchain 提供了很多标准的方法来调用各个厂商的模型,官网给出了完成整的集成列表:

https://docs.langchain.com/oss/python/integrations/providers/overview

可以进入官网。查看支持的模型厂商具体是如何使用。这里我们用deepseek举例:

这个是langchain 支持deepseek模型的集成包,可以直接使用:

from langchain_deepseek import ChatDeepSeek model = ChatDeepSeek( model="...", temperature=0, max_tokens=None, timeout=None, max_retries=2, api_key=os.getenv("DEEPSEEK_API_KEY"), # other params... )

其他模型提供商也有对应的集成包,大家可以自行去官网寻找,也可以使用 openAI的标准格式,基本上所有模型都支持这种方式:

model=ChatOpenAI( model="deepseek-chat", api_key=os.getenv("DEEPSEEK_API_KEY"), base_url="https://api.deepseek.com", temperature=0.7

通过上面的方法,我们就能得到一个模型实例 model,接下来就可以调用这个 model 实例,使用invoke或者stream方法向模型发起请求并获取它的返回结果了:

model = ChatOpenAI( model="deepseek-chat", api_key=os.getenv("DEEPSEEK_API_KEY"), base_url="https://api.deepseek.com", temperature=0.7 ) messages = [ {"role": "system", "content": "你是一个有用的助手。"}, {"role": "user", "content": "你是谁"} ] result = model.invoke(messages) print(result.content) # 流失输出 result = model.stream(messages) for chunk in result: print(chunk.content)

声明工具

在 LangChain 里定义工具函数特别简单,用 @tool 装饰器就能快速搞定 ,这也是最常用、最便捷的方式:

# 定义工具函数 @tool def get_weather(destination, date): # 实际调用天气 API return f"{destination} {date} 天气晴朗" @tool def get_attractions(destination): return f"{destination} 的热门景点有故宫、颐和园..." # ... 其他函数

模型调用工具的关键,是靠工具名称和描述来判断该不该用这个工具。

如果只是写个普通函数给 LangChain 用,它会默认把函数名当工具名、函数的文档字符串当描述。但这种默认写法往往描述得不够精准,模型很可能理解错工具用途,导致调用出错。

所以想让模型“精准识别、正确调用”工具,最好的方式是显式定义:给工具指定清晰的名称、详细的描述,还要给每个参数也加上说明。

推荐的做法就是用 @tool 装饰器,搭配 Annotated 和 Field 来补充这些详细的元数据,让模型完全明白工具的作用和用法:

from langchain_core.tools import tool from typing import Annotated from pydantic import Field @tool(name_or_callable="get_weather", description="获取指定城市指定日期的天气信息") def get_weather( destination: Annotated[str, Field(description="城市名称,如'西安'")], date: Annotated[str, Field(description="日期,格式 YYYY-MM-DD,如'2025-05-20'")] ) -> str: return f"{destination} {date} 天气晴朗" @tool(name_or_callable="get_attractions", description="获取指定城市的景点推荐") def get_attractions( destination: Annotated[str, Field(description="城市名称,如'北京'")] ) -> str: # 实际开发中,这里应调用景点 API return f"{city} 的热门景点有:故宫、颐和园、天坛。"

定义智能体

在 LangChain 中,开发一个智能体非常简单。框架提供了标准方法 create_agent,所有智能体都可以通过该方法快速定义。

我们只需要传入几个核心参数,即可完成一个智能体的创建:

  1. 模型:通过 LangChain 的模型调用接口得到的大模型实例。

  2. 工具:声明好的工具列表。

下面是一个完整的示例,演示如何创建一个最简单的智能体并使用它:

from langchain_openai import ChatOpenAI from langchain.agents import create_react_agent from langchain_core.tools import tool import os # 定义工具(假设已有 get_weather, get_attractions) # 示例工具函数已在前文定义,此处略 # 初始化模型 model = ChatOpenAI( model="deepseek-chat", api_key=os.getenv("DEEPSEEK_API_KEY"), base_url="https://api.deepseek.com", temperature=0.7 ) # 工具列表 tools = [get_weather, get_attractions] # 创建智能体 agent = create_agent(model=model, tools=tools) # 准备输入消息 messages = { "messages": [ {"role": "system", "content": "你是一个有用的助手。"}, {"role": "user", "content": "我想去北京玩,能帮我看看天气和景点吗?"} ] } # 调用智能体 result = agent.invoke(messages) # 输出最终答案 print(result["messages"][-1].content)

这样,我们就完成了一个最简单的智能体。LangChain 的 create_agent 方法默认采用 ReAct 模式(Reasoning + Acting)运行智能体,其工作流程如下:

  • 模型接收用户消息,进行推理,判断是否需要调用工具。

  • 如果需要工具,模型输出工具调用指令,框架自动执行对应工具,并将结果作为新的消息添加到对话中。

  • 更新后的消息再次输入给模型,重复上述步骤,直到模型认为信息收集完毕,给出最终答案。

  • 整个流程完全由框架自动管理,开发者只需提供模型和工具,即可获得一个具备自主决策能力的智能体。

添加记忆

上一节,我们构建了一个能够调用工具的智能体,它目前还没有记忆能力,每次对话都是独立的,无法记住之前的对话历史。

为了让智能体具备多轮对话的能力,LangChain 提供了完善的记忆(Memory)模块,记忆分为两类:短期记忆和长期记忆,接下来我们一起使用langchain提供的方法来实现他们:

短期记忆:通常指模型上下文窗口内的对话历史。由于大模型的上下文窗口有限,我们无法将无限长的对话历史全部发送给模型。因此,短期记忆通常采用“滑动窗口”或“摘要总结”的方式,只保留最近的几轮对话或关键信息。

在 LangChain中,短期记忆的持久化是通过 Checkpointer 机制实现的。

Checkpointer 机制

在构建智能体时,我们通常希望它能够记住之前的对话内容。LangGraph 通过 checkpointer 来保存每一轮交互后的状态(State):

  • Checkpointer:负责在每一步(Step)结束后,将当前的状态(包括消息历史、变量等)保存起来。

  • thread_id:当我们需要继续之前的对话时,只需要提供相同的 thread_id,Checkpointer 就会加载之前的状态,从而实现“记忆”功能。

InMemorySaver 是一个基于内存的检查点保存器:

  1. 原理:它将状态数据保存在 Python 的字典(内存)中。

  2. 特点:速度快,无需额外依赖(如数据库)。

  3. 局限性:程序重启后数据会丢失。因此仅适用于开发调试或不需要持久化的场景。

  4. 生产环境替代方案:在生产环境中,通常会使用 PostgresSaver (基于 PostgreSQL) 或 SqliteSaver 等持久化方案,以确保服务重启后记忆不丢失。

from langgraph.checkpoint.memory import InMemorySaver # ... agent = create_agent( # ... checkpointer=InMemorySaver() ) # 调用时指定 thread_id config = {"configurable": {"thread_id": "1"}} result = agent.invoke(input=messages, config=config)

长期记忆:为了解决上下文窗口的限制,我们需要将历史对话持久化存储(如数据库、向量库)。

在需要时,通过检索算法(如语义相似度搜索)找到与当前问题最相关的历史记录,注入到 Prompt 中。

这也就是 RAG(检索增强生成)在记忆模块中的应用。

下面我们以一个基于向量数据库的长期记忆实现为例

向量化存储实现

我们使用 Chroma 作为向量数据库,配合 DashScope 的 Embedding 模型来实现记忆的存储与检索。

首先,我们需要初始化 Embedding 模型和向量数据库:

import os from langchain_community.embeddings import DashScopeEmbeddings from langchain_chroma import Chroma from langchain_core.documents import Document # 初始化向量模型 embeddings = DashScopeEmbeddings( model="text-embedding-v4", dashscope_api_key=os.getenv("DASHSCOPE_API_KEY") ) # 初始化向量存储 # persist_directory 指定数据持久化目录 vectorstore = Chroma( embedding_function=embeddings, persist_directory="./chroma_db", collection_name="chat_history" )

保存记忆

当对话发生时,我们需要将用户的输入和 AI 的回复保存下来。为了区分不同用户和会话,我们在 metadata 中记录 user_id 和 session_id:

def save_messages(messages: str, user_id: int, session_id: int): """ 保存用户输入和AI输出的会话记录 """ # 将对话内容封装为 Document 对象,并添加元数据 doc = Document( page_content=messages, metadata={"user_id": user_id, "session_id": session_id} ) # 添加到向量数据库 vectorstore.add_documents([doc])

检索记忆

在进行新一轮对话前,我们可以根据用户的输入(Query),在向量库中检索相关的历史记录,作为上下文提供给模型。这里我们还支持根据 user_id 和 session_id 进行过滤,确保只检索当前用户或会话的记忆:

def load_messages(query: str, user_id: int, session_id: int): """ 加载用户输入和AI输出的会话记录 """ # 构建过滤条件 filters = [] if user_id: filters.append({"user_id": user_id}) if session_id: filters.append({"session_id": session_id}) if len(filters) > 1: filter_dict = {"$and": filters} elif len(filters) == 1: filter_dict = filters[0] else: filter_dict = None # 执行相似度搜索,返回最相关的 top-k 记录 if filter_dict: docs = vectorstore.similarity_search(query=query, k=3, filter=filter_dict) else: docs = vectorstore.similarity_search(query=query, k=3) return docs

这里就做好了长期记忆的保存和检索,接下来让我们在智能体中增加消息的保存和检索。

在短期记忆中可以在create_agent中 加入一个 checkpointer=InMemorySaver()就可以实现短期记忆,langchain就会将历史对话消息添加到提示词中,那么我们如何把长期记忆添加到提示词中呢,这里就不得不提到langchain的中间件Middleware了:

通过middleware添加长期记忆

Middleware 提供了强大的生命周期钩子,允许我们在模型调用前后、工具执行前后进行深度干预。

中间件生命周期钩子:

我们需要自己定义一个中间件 add_long_memory 使用wrap_model_call在模型调用前 通过 load_messages 方法 查询 长期记忆 ,并将消息追加到messages中:

@wrap_model_call def add_long_memory(request: ModelRequest, handler: Callable[[ModelRequest], ModelResponse]) -> ModelResponse: print(f"Model call: {request}") message = request.messages[-1] if message.type == "human": embedding_docs = load_messages(message.content, config["configurable"]["user_id"], config["configurable"]["session_id"]) embedding_message = "\n".join([doc.page_content for doc in embedding_docs]) request.messages.append(ChatMessage(content=embedding_message, role="system")) return handler(request)

现在我们可以给agent添加长期记忆了,只需要在create_agent中 添加一个参数

middleware=[add_long_memory()]

Agent就会在调用模型前 调用add_long_memory 方法 将load_messages 查询到的历史消息,添加到提示词中。

完整的智能体代码如下:

config: RunnableConfig = {"configurable": {"thread_id": "1", "user_id": 1, "session_id": 1}} llm = ChatOpenAI( model="deepseek-chat", api_key=os.getenv("DEEPSEEK_API_KEY"), base_url="https://api.deepseek.com", temperature=0.7 ) messages = { "messages": [ {"role": "system", "content": "你是一个旅游规划助手。"}, {"role": "user", "content": user_message} ] } tools = [get_weather, get_attractions] agent = create_agent(llm, tools=tools, middleware=[add_long_memory()], checkpointer=InMemorySaver()) result = agent.invoke(input=messages, config=config) ai_message = result["messages"][-1].content save_messages(messages=user_message + ai_message, user_id=config["configurable"]["user_id"], session_id=config["configurable"]["session_id"])

运行效果如下:

结语

好了,聊了这么多,我们快速来回顾一下。用 LangChain 做一个智能体,其实依旧是围绕三个核心:模型、工具、记忆。

  1. 模型:不管你想用 DeepSeek 还是 OpenAI,LangChain 都给你封装好了,一行代码换模型,不用操心各家 API 的差异。

  2. 工具:把你要做的事写成函数,加个 @tool 装饰器,再写清楚它是干什么的、参数是什么,模型就能看懂、会调用。整个过程你会发现其实挺简单的。

  3. 记忆:分两类。短期记忆用 checkpointer,设个 thread_id 就能让智能体记住刚才的对话;长期记忆稍微费点功夫,得借助向量数据库存历史,再在模型调用前把相关的旧聊天翻出来塞给它。我们中间件那里演示的就是这个思路。

把这些一组合,一个能自己琢磨、会查天气、能聊天的旅行助手就搭起来了。

而且 LangChain 这套设计还挺贴心的,你要是想快速实现功能,就用它的高层封装;要是想精细控制每一步,底下还有 LangGraph 和中间件让你折腾。

最后想说,LangChain 确实把智能体开发的门槛拉低了不少。不管是做个简单的问答,还是想玩复杂的工作流,你都可以从今天聊的这几个组件开始,慢慢往上添东西。

有空的话,不妨自己动手搭一个试试,代码跑起来的后,还是挺有成就感的。

只不过,我们团队做 Agent 应该是不会使用 LangChain 的...

http://www.jsqmd.com/news/656969/

相关文章:

  • SAP接口集成-PO/PI-SLD配置实战:从系统格局到集成目录
  • 2026LINE养号:新号总被封?LINE账号养号与防封完整指南
  • 新年快乐 wp
  • Beyond Compare 5 密钥生成器:从技术原理到企业级部署指南
  • reverse2 wp
  • Element UI中国省市区级联数据:终极完整指南与实战教程
  • 独立站SEO流量增长:提高Google排名的优化方法
  • Eigen 3.4.90 矩阵操作实战 | C++高效线性代数指南(一)
  • 2026年美国投资移民机构排名及选择参考 - 品牌排行榜
  • 计算从1到输入整数之间的奇数之和
  • 汇川EASY系列与汇川HMI标签通讯及HMI索引
  • 适合零基础的口腔执业医师考试网课选择指南 - 医考机构品牌测评专家
  • Windows与iOS设备USB网络协议兼容性解决方案:Apple-Mobile-Drivers-Installer技术实现
  • 手把手教你用Keil5给51单片机编程:读取DHT11、SGP30等四种传感器数据
  • 手把手教你用VPI和Matlab搭建一个完整的相干光通信仿真链路(含完整DSP代码)
  • UVM线程通信实战:从event到mailbox的5个常见坑点及解决方案
  • 告别命令行:用Cockpit Web界面在CentOS7上可视化管理SNMP服务
  • Qwen3-32B驱动的漫画脸描述生成:二次元角色设计保姆级部署指南
  • [SUCTF2019]SignIn wp
  • 不踩雷不溢价!闪电喵星人联名鞋,Z世代穿搭刚需首选 - 中媒介
  • OpenCASCADE避坑指南:手把手教你从TopoDS_Shape提取三角网格,构建自己的BVH碰撞检测器
  • 深度解析:为什么Thorium浏览器是Chromium性能优化的终极选择
  • 避坑指南:STM32CubeMX配置GPIO驱动LED/蜂鸣器时,LL库与HAL库的关键区别与选择
  • 基于TDC-GPX的多通道高精度时间测量系统设计与激光雷达应用
  • 2026年3月门窗品牌推荐,铝门窗/安全门窗/慕莎尼奥门窗/断桥铝门窗/侧压平移推拉窗/门窗,门窗批发厂家推荐 - 品牌推荐师
  • 2026年美国投资移民中介排名及服务能力分析 - 品牌排行榜
  • 2026年康安倍泰秘语风花植物精华:植物力量守护女性私密健康 - 品牌排行榜
  • Zotero-GPT完全指南:3步打造你的AI文献研究助手
  • 别再只盯着主硬盘位!给联想老本加装固态,光驱位安装Win10的完整避坑指南
  • SpringBoot+MyBatis实战:手把手教你从零搭建一个企业级CRM系统(附完整源码)