langchain AI应用框架研究【开发部署-篇四】
上篇
本篇主要简单了解一下开发不部署。后面继续langgraph
14 开发
14.1 LangSmith Studio
在本地使用 LangChain 构建智能体时,如果能可视化内部运作、实时交互并随时调试,那会非常有帮助。LangSmith Studio就是一个免费的可视化界面,专门用于在本地机器上开发和测试你的 LangChain 智能体。
Studio 会连接到你本地运行的智能体,向你展示智能体采取的每一步操作:包括发送给模型的提示词、工具调用及其结果,以及最终的输出。你可以测试不同的输入、检查中间状态,并且无需编写额外代码或进行部署就能迭代优化智能体的行为。
本页面将介绍如何在本地 LangChain 智能体中设置 Studio
14.1.1 前置条件
在开始之前,请确保您已准备好以下内容:
- LangSmith 账户:请在 smith.langchain.com 免费注册或登录。
- LangSmith API 密钥:请参照“创建 API 密钥”指南进行操作。
如果您不希望数据被追踪至 LangSmith,请在应用程序的.env文件中设置LANGSMITH_TRACING=false。禁用追踪后,所有数据都将保留在您的本地服务器上,不会外传
14.1.2 设置本地agentServer
1. 安装 LangGraph CLI
LangGraph CLI 提供了一个本地开发服务器(也叫 Agent Server),它的作用是将你的智能体连接到 Studio
# Python >= 3.11 is required. pip install --upgrade "langgraph-cli[inmem]"2 准备agent
如果您已经有了一个 LangChain 智能体,可以直接使用它。本示例使用的是一个简单的邮件智能体
3 设置环境变量
Studio 需要一个LangSmith API 密钥才能连接你的本地智能体。请在项目的根目录下创建一个.env文件,并将你在 LangSmith 获取的 API 密钥添加进去
4 创建LangGraph配置文件
LangGraph CLI 使用一个配置文件来定位你的智能体并管理依赖项。请在你的应用目录中创建一个langgraph.json文件
{ "dependencies": ["."], "graphs": { "agent": "./src/agent.py:agent" }, "env": ".env" }create_agent函数会自动返回一个编译好的 LangGraph 图,而这正是配置文件中graphs键所期望的内容
5. 安装依赖
#我使用的是本地ollama部署,这里根据具体情况安装 pip install langchain langchain-openai6 在studio里面查看agent
#启动开发服务将agent连接到studio langgraph devSafari 会拦截指向本地主机(localhost)的连接,导致无法访问 Studio。为了解决这个问题,请在运行上述命令时添加--tunnel参数,以便通过安全隧道访问 Studio
服务器运行后,你的智能体即可通过以下两种方式访问:
- API 接口:http://127.0.0.1:2024
- Studio 用户界面 (UI):https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024
