当前位置: 首页 > news >正文

构建 Cline 级智能体:LangChain 与 MCP Server 的深度集成实战

本文档详细复盘了我们如何基于 LangChain 构建一个能够连接 Model Context Protocol (MCP) Server 的智能 Agent (GithubAgent)。我们的目标是复刻 Cline 等先进 IDE 插件的核心能力:自动工具发现自动规则注入以及智能工具调用

1. 架构概览:GithubAgent 的解剖

GithubAgent不仅仅是一个简单的 LLM 包装器,它是一个具备完整思考-行动-观察 (ReAct)循环的自治单元。

1.1 调用链路图

MCP Server (GitHub)Gemini ModelGithubAgent前端用户MCP Server (GitHub)Gemini ModelGithubAgent前端用户初始化阶段循环结束alt[发现 ToolCall][无 ToolCall]loop[ReAct Loop]"列出我的 repo"SSE Connect & HandshakeInitializeResult (含 Instructions)注入 System PromptListToolsTools List (含 Schema & Description)转换为 StructuredTool (Pydantic)Bind Tools对话历史 (Messages)AIMessage (含 ToolCall: get_repo_list)yield "[Thinking: Calling get_repo_list...]"CallTool(get_repo_list, args)ToolResult (Repo JSON)Append ToolMessage to Historyyield "Here are your repos..." (流式文本)

1.2 Agent 内部方法调用流 (Internal Flow)

为了更清晰地展示代码结构,我们将GithubAgent内部的方法调用关系绘制如下:

ReAct Loop

1. 初始化连接
2. 提取指令
3. 获取工具
4. 转换工具
5. 绑定模型
6. 进入循环

Stream

Decide

No

Yes

Result

Continue

_connect_and_execute

session.initialize()

_extract_instructions

_fetch_mcp_tools

_convert_mcp_tools

llm.bind_tools()

_agent_loop

LLM.astream()

Has Tool Calls?

Break Loop

_execute_tool_call

Append ToolMessage

2. 核心方法详解

代码:
https://github.com/jason-nvd11-org/askc-backend/blob/github-mcp-agent/src/agents/github_agent.py

为了实现上述架构,我们将GithubAgent拆分为五个单一职责的核心方法。

2.1_fetch_mcp_tools: 工具发现

代码职责:连接 MCP Server,拉取原始工具定义。

asyncdef_fetch_mcp_tools(self,session:ClientSession)->List[McpTool]:logger.info("Fetching tools from MCP...")result=awaitsession.list_tools()returnresult.tools

解释:这是实现“自动发现”的第一步。无论 Server 端增加了什么新工具,Agent 只要重启就能看到。

2.2_convert_mcp_tools: 智能适配器

代码职责:将 MCP 的 JSON Schema 转换为 LangChainStructuredTool
关键技术pydantic.create_model

def_convert_mcp_tools(self,mcp_tools:List[McpTool],session:ClientSession)->List[StructuredTool]:# ... 遍历 mcp_tools ...args_model=create_model(f"{tool.name}Schema",**fields)returnStructuredTool.from_function(...,args_schema=args_model)

解决的问题:这是解决“参数对齐”的关键。它确保 LLM 知道参数名是owner而不是username

2.3_extract_instructions: 规则注入

代码职责:从握手响应中提取 Server 端的instructions

def_extract_instructions(self,init_result:Any)->str:ifhasattr(init_result,'instructions')andinit_result.instructions:returnf"\n\n[Server Instructions]\n{init_result.instructions}"return""

解决的问题:Cline 能读懂 Server 的“潜规则”(如“别用浏览器”),靠的就是这一步。我们将这些规则强行注入到了 System Prompt 中。

2.4_agent_loop: 大脑回路

代码职责:维护 ReAct 循环,处理流式输出与工具调用的分流。

asyncdef_agent_loop(self,llm_with_tools,session,messages):whileTrue:# 1. 思考 (Think)asyncforchunkinllm_with_tools.astream(messages):# ... 累加 chunk ...ifchunk.content:yieldchunk# 实时输出文本# 2. 决策 (Decide)ifnotgetattr(final_chunk,'tool_calls',None):break# 没工具用,结束# 3. 行动 (Act)fortool_callinfinal_chunk.tool_calls:yieldAIMessageChunk(content=f"[Thinking: Calling{tool_call['name']}...]")tool_msg=awaitself._execute_tool_call(session,tool_call)messages.append(tool_msg)

2.5 流式输出机制 (Streaming Mechanism)

Agent 的流式能力不仅仅是简单地调用 LLM 的astream,它实现了一个混合流 (Hybrid Stream)

  1. 透传流 (Pass-through):
    当 LLM 生成普通文本时,Agent 作为中间管道,收到一个 chunk 就立刻yield一个 chunk。

    asyncforchunkinllm_with_tools.astream(messages):ifchunk.content:yieldchunk
  2. 合成流 (Synthesized):
    当 Agent 处于“思考”或“执行”状态时,LLM 是静默的。为了保持前端连接活跃并提供反馈,Agent 会手动构造AIMessageChunk并推送。

    yieldAIMessageChunk(content=f"[Thinking: Calling{tool_name}...]")
  3. 协议一致性:
    无论是 LLM 生成的,还是 Agent 伪造的,输出给前端的都是标准的BaseMessageChunk对象。这使得上层调用者(如ChatService)无需区分数据来源,统一处理。

3. 关键问题深度解析

Q1: Agent 如何像 Cline 一样发现工具?

A: 通过 MCP 协议的session.list_tools()
MCP 协议标准定义了tools/list接口。只要连接建立,Client 就可以询问 Server:“你有什么本事?” Server 会返回一份详细的清单(包含名称、描述、参数结构)。我们的 Agent 正是利用这个接口实现了动态发现。

Q2: Agent 如何获取 Instructions 并注入 Prompt?

A: 通过session.initialize()的返回值。
FastMCP 框架将instructions放在了初始化握手响应(InitializeResult)中。我们的_extract_instructions方法专门负责捕获这个字段,并将其追加到self.system_prompt后。这样,LLM 在每一次对话开始前,都会先“读”一遍这份说明书。

Q3: Agent 如何读懂 Tool 的注解?

A: 通过全链路透传description字段。
Server 代码里的 docstring -> MCP Protocol (description字段) ->session.list_tools()->GithubAgent->StructuredTool(description=...)-> LLM Prompt。
我们在代码中显式地传递了description=tool.description,确保 LLM 能看到工具的用途说明。

Q4: LLM 的 Tool Call 输出在哪里?

A: 藏在AIMessage.tool_calls属性里。
现代 LLM API(OpenAI/Gemini)将“内容”与“指令”分流了。

  • Content: 给用户看的文本。当调用工具时,这通常是空的。
  • Tool Calls: 给程序看的指令。LangChain 将其解析并存放在message.tool_calls列表里。
    我们在_agent_loop中通过检查if final_chunk.tool_calls:来捕捉 LLM 的意图。

Q5: 如何实现 “Thinking…” 流式反馈?

A: 手动 YieldAIMessageChunk
既然 Tool Call 阶段content是空的,前端默认看不到任何东西。
我们在检测到tool_calls后、执行工具前,手动构造了一个包含提示文本的消息块并yield出去:

yieldAIMessageChunk(content=f"\n[Thinking: Calling tool `{tool_name}`...]\n")``` 这模拟了类似 ChatGPT 的思考状态展示。## 4. 实战演示 (Sample Output)以下是运行 `GithubAgent` 时的真实日志输出(已脱敏),展示了完整的思考与执行过程: ```text INFO|src.agents.github_agent:_connect_and_execute:110-Connecting to GitHub MCP at https://.../sse...INFO|src.agents.github_agent:_connect_and_execute:116-MCP Session initialized.INFO|src.agents.github_agent:_extract_instructions:44-Loaded server instructions.INFO|src.agents.github_agent:_fetch_mcp_tools:33-Fetched2toolsfromMCP.INFO|src.tools.mcp_tool_converter:convert:13-Converting tool:get_repo_list,Description:Fetches alistof repositories...INFO|src.agents.github_agent:_agent_loop:99-AI requested1tool calls[Thinking:Calling tool `get_repo_list`...]INFO|src.agents.github_agent:_execute_tool_call:54-Executing tool:get_repo_listwithargs:{'limit':3,'owner':'nvd11'}INFO|src.agents.github_agent:_execute_tool_call:64-Tool result:[{"name":"mail-service",...}]Here are the first3repositoriesforuser nvd11:1.mail-service:https://github.com/nvd11/mail-service2.envoy-config:https://github.com/nvd11/envoy-config3.first-mcp:https://github.com/nvd11/first-mcp
http://www.jsqmd.com/news/231626/

相关文章:

  • ResNet18应用指南:智能城市管理解决方案
  • mptools v8.0配置文件解析:系统学习与实践应用
  • ResNet18部署指南:医疗影像识别系统搭建步骤
  • Java基于微信小程序的鲜花销售系统,附源码+文档说明
  • ResNet18部署案例:工业质检分类系统实现
  • 初学者必备:时序逻辑电路FPGA手把手教程
  • ResNet18优化指南:Batch Size调优策略
  • ResNet18应用实例:智能交通监控系统
  • ResNet18部署指南:Azure云服务最佳配置
  • ResNet18性能测试:不同预处理方法影响
  • 多层工业控制板中走线宽度与载流优化策略
  • ResNet18性能对比:CPU与GPU推理效率测试
  • 通俗解释RISC-V异常委托与权限控制
  • Keil5安装后无法识别STC89C52?常见问题深度剖析
  • ResNet18部署教程:云端推理服务配置详细步骤
  • ResNet18部署指南:微服务架构实现
  • 超详细版OpenAMP入门指南:从编译到调试全过程
  • 一文说清硬件电路中的LDO设计要点
  • ResNet18技术解析:卷积神经网络的基础原理
  • ResNet18部署实战:Flask WebUI集成教程
  • ResNet18部署指南:企业级图像识别服务配置
  • 上拉电阻与下拉电阻对比:数字接口设计要点
  • 电源平面分割与走线宽度协同设计:对照表辅助方案
  • 手把手教你理解risc-v五级流水线cpu的五大阶段
  • Vivado许可证版本兼容性说明:一文说清
  • ResNet18部署案例:智能零售客流分析系统
  • ResNet18性能分析:不同分辨率图像处理对比
  • ResNet18实战:医疗影像识别系统部署完整流程
  • ResNet18实战教程:从模型训练到部署全流程
  • ResNet18实战教程:卫星图像识别系统