当前位置: 首页 > news >正文

AI开发之LangGraph教程1~基础

一、核心基础概念

先搞懂两个最关键的基础常识,就能立刻理解 LangGraph 的存在意义。

第一,原生 LLM 大语言模型本身是完全无状态的。通俗说就是:大模型本身没有自带记忆,每一次给它发消息、每一次推理生成,都是一次全新的独立运算。它不会自己保存聊天记录、记不住上一轮聊了什么,也留存不了任务执行进度、中间思考结论,更没法自动接续中断过的复杂流程。只靠裸用 LLM,只能做简单单次问答、短句创作,但凡涉及多步思考、连续调用工具、分环节完成任务、中途暂停后续接着做这类复杂场景,无状态的大模型根本独立撑不起来。

第二,LangGraph 常被国内错误翻译描述成 “低级别的编排框架”,这是典型概念误解。真实准确的概念是:LangGraph 是面向 AI 智能体开发的底层编排框架。这里的底层不是档次低,而是指不做过度封装、不强行固化架构和提示词写法,把最大的定制权、控制权交给开发者,自由度拉满,专门用来解决 LLM 无状态的先天短板,给大模型补上状态记忆、流程编排、任务调度这些关键能力。

简单来说:LLM 负责动脑思考、生成语言,天生没记忆不会管流程;LangGraph 负责管记忆、管步骤、管流转、管断点接续,给 LLM 搭好一套能跑复杂长任务的骨架。

二、LangGraph 整体定位

LangGraph 是专注于构建、管理、部署长时间运行且自带状态管理的 AI 智能体底层编排框架,目前已经被 Klarna、Replit、Elastic 等专注智能体落地的企业广泛采用。它可以脱离 LangChain 独立使用,也能和 LangChain 全系生态无缝搭配,是当下开发企业级复杂 AI 智能体、自动化工作流的核心基础工具。

三、快速入门

安装 LangGraph

pip install -U langgraph

基于预构建组件快速创建智能体

# 执行安装依赖:pip install -qU "langchain[anthropic]" from langgraph.prebuilt import create_react_agent def get_weather(city: str) -> str: """获取指定城市的天气信息""" return f"It's always sunny in {city}!" # 绑定模型、工具与系统提示,初始化智能体 agent = create_react_agent( model="anthropic:claude-3-7-sonnet-latest", tools=[get_weather], prompt="You are a helpful assistant" ) # 调用智能体执行任务 agent.invoke( {"messages": [{"role": "user", "content": "what is the weather in sf"}]} )

上面的代码只是个示意,我们可以采用国内大厂的公共大模型。

四、LangGraph 在 AI 开发中的核心重要作用

在大模型应用开发里,LangGraph 有着不可替代的核心价值。正因为 LLM 天生无状态,没办法自己维系上下文、拆解多步骤任务、做条件判断和循环推理,更没法实现中途暂停、人工介入、断点续跑。

而 LangGraph 以图结构为核心编排逻辑,把复杂任务拆成推理节点、工具调用节点、决策分支节点,相当于给无状态的大模型配上了持久记忆系统 + 任务流程管家。一方面统一全局状态管理,让所有节点共享记忆数据,实现单任务内短期上下文留存、跨会话长期记忆沉淀;另一方面支持条件分支、循环执行、多智能体分工协作,让原本只会单次问答的 LLM,升级成能自主思考、分步做事、持续执行复杂业务的智能体。

同时它坚持轻量化底层设计,不对提示词、智能体架构做强制抽象封装,不束缚开发者的定制思路,不用开发者从零手写记忆存储、流程调度、状态维护的底层代码,兼顾了灵活性、可控性和开发效率。

五、核心优势

LangGraph 为所有长时运行、带状态的 AI 工作流与智能体提供底层基础设施,保留极致开发可控性,核心亮点十分突出:

  1. 持久执行搭建抗故障、可长期驻留运行的智能体,支持断点自动恢复,能从中断位置接续执行,完美弥补 LLM 无状态、重启就清空进度的缺陷。
  2. 人在回路在任务任意执行节点都能查看、修改智能体状态,随时接入人工审核、干预调整,适配办公审批、数据处理、专业咨询这类需要人工把关的严谨场景。
  3. 全周期状态记忆同时具备短期工作记忆和跨会话长期记忆,既留存单次任务里的推理细节和对话上下文,又能长期沉淀用户习惯、历史任务信息,让 AI 拥有连贯的交互和任务延续能力。
  4. LangSmith 可视化调试可视化追踪智能体执行路径、状态变化和节点流转,快速排查大模型推理异常、流程卡死、状态错乱等问题,大幅降低复杂 AI 应用的调试门槛。
  5. 生产级部署能力专为有状态、长周期 AI 工作流设计,支持弹性扩缩容、项目共享与快速原型迭代,让实验阶段的智能体方案能够平稳落地为企业级稳定服务。

六、技术生态

LangGraph 拥有完善配套生态,可按需组合使用:

  • LangSmith:提供智能体评估、可观测性能力,用于调试 LLM 应用、追踪执行轨迹、线上监控与性能持续优化。
  • LangGraph Platform:专属部署平台,聚焦长时有状态工作流,一站式完成智能体部署、运维与团队协作。
  • LangChain:提供海量模型、工具、组件集成,简化 LLM 应用基础开发流程。

七、技术设计背景

LangGraph 的设计灵感源自 Pregel 与 Apache Beam 分布式计算思想,公共接口设计参考了 NetworkX 图论工具库;由 LangChain 官方团队研发,具备完全独立运行能力,不依赖 LangChain 主库也能正常开发使用。

http://www.jsqmd.com/news/777970/

相关文章:

  • Python + OpenCV 实战:图片批量缩放与加水印教程
  • 2026停车场照明哪家节能率最好?行业技术对比分析 - 品牌排行榜
  • 如何永久保存你的微信记忆:WeChatMsg终极备份与深度分析指南
  • 不止于rootdelay:深入RK3568 Linux电源与存储子系统初始化顺序的优化实践
  • M-冒-P-人-S
  • 25年南海区区赛
  • 浙江传媒学院星光班:公办背景下的职业技能培养全解析 - 奔跑123
  • 告别VM自带界面:手把手教你用C# WinForm打造专属视觉检测上位机(含流程控制与结果绘制)
  • Arm Cortex-A75 SIMD与浮点寄存器架构解析
  • 3分钟定位Windows热键冲突:Hotkey Detective终极解决方案
  • 3 首页智能入口深化、全局壳体升级与分析师耗时治理
  • AI——OpenCode + Python打造飞书表格MCP服务器
  • 告别下载器!用两块HC-05蓝牙模块,给你的STM32F103C8T6远程‘换心’
  • 保姆级避坑指南:STM32H7的SD卡虚拟U盘项目,CubeIDE配置FATFS长文件名为何导致FreeRTOS崩溃?
  • Adobe Media Encoder 2026 最新版本保姆级安装教程(附安装包)
  • 2026年上海广告物料制作一站式服务商深度横评:源头大厂如何破局品质与交付困局 - 优质企业观察收录
  • 3步安装Calibre豆瓣插件:为中文电子书自动获取元数据的完整指南
  • 读《思考,快与慢》:在GEO热潮中保留判断力
  • 别光刷题了!用这5个华为云AI小项目,带你吃透HCCDA认证核心考点
  • 穿越回80年代:用TEC-2和AM2901芯片亲手搭建一个16位运算器是种什么体验?
  • ERP系统选型与实施的关键策略与实战经验
  • 代码随想录算法训练营 Day52 | 图论 part10
  • 通过Taotoken模型广场对比测试不同模型的代码生成效果
  • 目前靠谱的雷达液位计厂商哪家好 - 速递信息
  • 苹果就 iPhone AI 能力误导指控达成 2.5 亿美元和解,特定机型用户可获赔偿
  • DataX插件开发初体验:手把手教你为自定义数据源写一个Reader插件
  • 5步革命性解决方案:一键生成Beyond Compare专业版永久授权密钥的智能操作手册
  • 实测Taotoken在不同时段的API响应延迟与稳定性表现
  • 长期使用Taotoken聚合API在月度账单与用量上的可见性分析
  • 个人健康系统|健康管理|基于java+Android+微信小程序的个人健康系统设计与实现(源码+数据库+文档)