当前位置: 首页 > news >正文

Octocode:基于MCP协议,让AI助手拥有资深工程师的代码理解能力

1. 项目概述:当你的AI助手拥有了“资深工程师”的思维

如果你和我一样,每天都在和代码打交道,那你肯定遇到过这样的场景:面对一个陌生的代码库,或者一个复杂的开源项目,你希望AI助手能帮你快速理解它的架构、找到某个功能的实现、或者分析一个PR的潜在影响。但很多时候,你会发现,AI给出的回答要么是基于过时的文档,要么是泛泛而谈的猜测,离“真正理解代码”还差得很远。问题的核心在于,AI缺乏对代码的深度上下文结构化理解能力。

这就是Octocode要解决的问题。它不是一个简单的代码搜索工具,而是一个基于Model Context Protocol (MCP)的服务器,旨在将你的AI助手(比如Claude、Cursor AI)武装成一位“资深工程师”。它的核心理念是“停止猜测,开始知晓”。通过将GitHub/GitLab仓库搜索、本地代码库的LSP(语言服务器协议)智能、以及依赖图分析等能力整合进一个统一的协议,Octocode让AI能够像人类工程师一样,基于真实的、结构化的代码证据进行推理和决策。

简单来说,它给你的AI装上了“编译器级别的眼睛”和“项目全局的思维”。你可以直接问它:“这个React组件在项目里被哪些地方调用了?”、“帮我看看这个npm包的最新版本在GitHub上有没有已知的安全问题?”、“为这个新功能写一份技术方案,需要参考我们项目里类似的实现模式。” Octocode会驱动你的AI助手,去真实地搜索代码、分析调用链、理解架构,然后给出有据可依的回答,而不是凭空想象。

2. 核心架构与设计哲学拆解

2.1 为什么是MCP?从“工具调用”到“能力注入”

在深入Octocode的具体功能前,有必要先理解其基石——Model Context Protocol。MCP是Anthropic提出的一种开放协议,它定义了一套标准,让任何外部工具或数据源都能以一种结构化、安全的方式,将自己“暴露”给大语言模型。你可以把它想象成AI世界的“USB-C接口”标准。

传统的AI助手使用工具,往往是“一次一用”的模式:你问一个问题,AI决定调用某个API,然后返回结果。这个过程是孤立的、无状态的。而MCP的目标是让工具成为AI持续可用的背景能力。一旦配置好MCP服务器(如Octocode),你的AI助手就永久地获得了这个服务器提供的所有“技能”。这些技能变成了AI思考时随时可以调用的“内置函数”。

Octocode选择基于MCP构建,是极具远见的设计。这意味着:

  1. 协议标准化:它不绑定于某个特定的AI前端(如Cursor、Claude Desktop),任何支持MCP的客户端都能使用它,保证了未来的兼容性和生态活力。
  2. 能力深度集成:AI不是“偶尔查询”一下代码,而是将代码搜索、LSP分析等能力内化为其认知过程的一部分。当AI在思考如何重构代码时,它可以实时、无缝地“跳转到定义”或“查找所有引用”,就像人类工程师在IDE里做的一样。
  3. 上下文持久化:像“Research”这样的技能支持会话和状态持久化,使得AI可以进行多轮、复杂的调研任务,记住之前的发现,并在此基础上深入,模拟了人类的研究过程。

2.2 “研究驱动开发”的四大支柱

Octocode的官方文档里有一份 宣言 ,其中提到“代码即真理,但上下文是地图”。这句话精准地概括了其设计哲学。它将“研究驱动开发”具象化为四个核心支柱,这也是Octocode能力构建的蓝图:

  1. 证据优于直觉:反对AI的“幻觉”和猜测。任何结论、建议或代码生成,都必须有来自真实代码库、文档或版本历史的证据支持。例如,“PR Reviewer”技能在提出评论时,会明确指出是哪个文件的哪一行代码存在问题,并可能追溯其影响范围。
  2. 上下文即生产力:孤立的代码片段价值有限。Octocode致力于构建从单行代码到整个依赖生态的立体上下文。这包括语法上下文(AST抽象语法树)、项目上下文(文件结构、导入关系)、团队上下文(Git历史、PR讨论)和生态上下文(npm/PyPI包信息、GitHub趋势)。
  3. 流程可复现:优秀的工程实践应该是系统化的,而非随机的。Octocode将许多高级工作流(如技术方案设计、代码审查、文档撰写)封装成具有明确阶段和检查点的“技能”。这确保了输出质量的一致性和过程的可审计性。
  4. 工具为人服务:最终目标是增强工程师,而非替代。工具应该理解工程师的意图,处理繁琐的信息检索和初步分析,将人类的心智从机械劳动中解放出来,聚焦于更高层次的设计、决策和创造。

基于这四大支柱,Octocode的架构自然演化为两个主要部分:MCP服务器提供底层的数据接入和能力抽象;技能则是在此之上构建的、面向具体任务的高级工作流应用。

3. 核心组件深度解析与实操要点

3.1 MCP服务器:连接AI与代码世界的桥梁

Octocode MCP Server是整个系统的引擎。它不是一个有用户界面的应用,而是一个后台服务,负责与各种数据源通信,并将结果通过MCP协议格式化后提供给AI客户端。它的能力主要分为三大块:

GitHub/GitLab集成:这是获取外部知识和参考实现的关键。通过GitHub API,Octocode可以让AI执行语义级别的代码搜索。这不仅仅是简单的关键词匹配。例如,你可以让AI“查找使用React Context和useReducer实现状态管理的中型项目示例”,Octocode会尝试理解这个查询的语义,并在授权的仓库中寻找最相关的代码片段和项目结构。

实操心得:权限与速率限制使用GitHub集成必须进行OAuth认证,这是为了遵守API的安全策略。在配置时,务必仔细阅读 认证设置文档 。一个常见的坑是速率限制。GitHub API对非认证请求和认证请求都有严格的每分钟请求次数限制。Octocode在设计上会尽量优化请求,但对于高频使用的团队,需要注意监控,或考虑使用GitHub App安装方式以获得更高的限额。

本地工具与LSP智能:这是让AI理解你手头项目的“杀手锏”。它集成了类似IDE的语言服务器功能。

  • 搜索与浏览:在本地代码库中快速查找文件、搜索特定符号(如函数名、类名)。
  • “跳转到定义”:AI可以请求查看某个符号在何处被定义。这对于理解第三方库或大型项目内部结构至关重要。
  • “查找所有引用”:AI可以分析某个函数或变量在项目中被调用的所有位置,这是进行影响分析和安全重构的基础。
  • “调用层次结构”:获得一个函数调用链的完整视图,理解代码的执行流。

依赖图分析:通过分析package.jsonrequirements.txt等文件,Octocode能为AI构建项目的依赖关系图谱。这使得AI能够回答诸如“如果我们升级Lodash到最新版本,会影响哪些模块?”或“这个项目是否间接依赖了那个有安全漏洞的包?”这类问题。

3.2 技能生态:开箱即用的高级工作流

如果说MCP服务器提供了“原材料”(代码数据),那么技能就是将这些原材料加工成“成品”(解决方案)的配方。Octocode提供了一系列技能,每个都针对一个特定的工程场景进行了优化。

3.2.1 Researcher 与 Research 技能:深度代码探索

这是两个容易混淆但侧重点不同的技能。

  • Researcher:偏向于即时搜索与探索。它像一个强大的、集成了多源信息的代码搜索引擎。你可以让它“在本地项目和GitHub上搜索关于用户身份验证的最佳实践”,它会并行地在你的本地代码和云端仓库中寻找相关信息,并给出综合摘要。
  • Research:侧重于多阶段、有状态的深度研究。它引入了“会话”和“检查点”的概念。当你启动一个研究任务(例如,“研究如何在本项目中实现微前端架构”),AI会制定一个研究计划,分阶段进行:可能先理解现有架构,然后搜索类似规模的案例,接着分析引入的技术栈的兼容性,最后总结利弊。整个过程的状态会被保存,你可以随时中断,下次继续。这模拟了人类工程师进行技术调研的完整流程。

3.2.2 Engineer 技能:AST级别的代码理解与操作

这是最体现“编译器级理解”的技能。它不仅仅看代码文本,而是通过AST(抽象语法树)来理解代码结构。

  • 代码审计:可以分析代码的复杂度、发现反模式(如过深的嵌套、过长的函数)。
  • 智能重构建议:基于AST的分析,可以提出更准确的重构方案,比如提取方法、内联变量等,并能预判影响范围。
  • 依赖影响分析:结合LSP的“查找引用”和依赖图,清晰地展示一段代码的修改会波及多远。

3.2.3 Plan 与 RFC Generator 技能:从想法到方案

这两个技能将工程决策过程形式化。

  • Plan:遵循“理解 > 研究 > 计划 > 实施”的流程。当你提出一个需求(如“我们需要一个文件上传服务”),AI会首先尝试理解项目当前的技术栈和约束,然后自动调用Research技能去调研方案,最后生成一个包含技术选型、实施步骤、风险评估的详细计划。
  • RFC Generator:用于生成正式的技术方案文档。它会强制要求考虑多个备选方案,分析各自的权衡(Trade-offs),并给出明确的推荐。这对于需要团队评审和存档的重要技术决策非常有用,确保了决策的严谨性和透明度。

3.2.4 PR Reviewer 与 Roast 技能:代码质量守护

两者都做代码审查,但风格和目的迥异。

  • PR Reviewer:是全面而系统的。它宣称覆盖7个审查领域(如正确性、性能、安全性、可维护性等)。它的特点是会进行“LSP流追踪”,即沿着代码的调用链去检查变更的影响,而不仅仅是看Diff本身。它输出的审查意见结构清晰,像一位严谨的同事。
  • Roast:是犀利而直接的。它的目的就是“拷打”你的代码,找出所有可能的问题,并以一种毫不留情的、带点幽默的方式指出来,并附上文件行号引用和严重等级。这适合在追求极致代码质量或个人学习时使用,能快速暴露盲点。

3.2.5 辅助类技能:Prompt Optimizer 与 Doc Writer

  • Prompt Optimizer:将模糊的指令转化为AI可严格执行的“代理协议”。例如,你把“帮我写个函数”优化成“请遵循以下协议:1. 首先分析现有代码库中类似函数的模式和命名约定;2. 编写函数,包含JSDoc注释,描述输入、输出和异常;3. 在项目约定的位置创建单元测试桩...”。这大大提升了与AI协作的效率和产出质量。
  • Doc Writer:采用6阶段流水线,生成超过16种不同类型的、经过验证的文档(如API文档、架构图描述、README等)。它确保了文档与代码实际状态的一致性。

4. 完整配置与核心工作流实操

4.1 环境准备与安装指南

Octocode提供了多种安装方式,以适应不同用户的偏好。

4.1.1 前置条件:GitHub认证这是使用云端代码搜索功能的必经之路。你需要一个GitHub账号,并为Octocode授权。最方便的方式是通过官方CLI工具进行交互式认证。

4.1.2 推荐安装:使用Octocode CLI这是最省心的方法,尤其适合新手。

npx octocode-cli

运行上述命令后,一个交互式向导会启动。它会引导你完成:

  1. 打开浏览器完成GitHub OAuth授权。
  2. 自动检测你使用的AI客户端(如Cursor、Claude Desktop)。
  3. 帮你修改该客户端的MCP配置文件,添加Octocode服务器。
  4. 引导你从技能市场浏览和安装初始技能。

整个过程基本是“下一步”到底,极大降低了配置复杂度。

4.1.3 手动配置MCP(适用于高级用户)如果你喜欢手动控制,或者你的AI客户端有特殊的配置位置,可以手动编辑MCP配置文件(通常位于~/.config/cursor/mcp.json或类似路径)。

{ "mcpServers": { "octocode": { "command": "npx", "args": ["octocode-mcp@latest"], "env": { # 如果需要,可以在这里设置环境变量,例如自定义缓存目录 "OCTOCODE_CACHE_DIR": "/path/to/your/cache" } } } }

编辑保存后,重启你的AI客户端即可。

4.1.4 直接安装特定技能如果你只需要某个特定功能,比如“Research”,可以跳过完整CLI,直接安装该技能。

npx add-skill https://github.com/bgauryy/octocode-mcp/tree/main/skills/octocode-research

这个命令会将该技能安装到你的全局技能目录中,供支持MCP技能的客户端使用。

注意事项:客户端兼容性确保你使用的AI客户端支持MCP协议。目前,Cursor IDE和Claude Desktop是官方支持较好的客户端。其他客户端如Windsurf、Lazy AI等也可能支持,但需要查看其各自文档。安装后,通常在客户端的设置或聊天界面中会有“已连接工具”或“MCP服务器”的提示。

4.2 核心工作流实战:以“技术调研与方案设计”为例

让我们通过一个完整的场景,看看如何将Octocode的各项能力串联起来。假设你接手了一个任务:“为现有的Node.js后端服务添加GraphQL API层”

第一步:启动深度研究(使用 Research 技能)你可以在AI聊天框中输入:/research 为我们的Node.js电商后端添加GraphQL API的可行性与实施方案

  1. AI会启动一个研究会话,首先尝试理解你的项目现状。它会通过Octocode MCP服务器,分析你本地代码的package.json,了解当前使用的框架(比如是Express还是Koa)、ORM(比如Prisma或Sequelize)、以及现有的REST API结构。
  2. 接着,AI会制定研究计划。它可能分阶段进行:a) 现有架构评估;b) GraphQL与REST对比及引入成本;c) Node.js生态中主流GraphQL库(Apollo Server, GraphQL Yoga)的选型分析;d) 与现有数据库层(Prisma)的集成模式;e) 性能与缓存考量。
  3. 在研究过程中,AI会主动使用Octocode的搜索能力。例如,在“选型分析”阶段,它会搜索GitHub上类似规模(电商、Node.js)的项目,看它们如何使用Apollo Server,并读取相关的READMEserver.js实现代码作为参考。
  4. 研究结束时,AI会生成一份带有检查点的总结报告,指出关键发现、推荐方案和潜在风险。

第二步:生成正式技术方案(使用 RFC Generator 技能)基于研究结果,你需要一份正式文档用于团队讨论。输入:/rfc-generator 项目:电商后端;主题:引入GraphQL API;背景:(粘贴研究总结的关键部分)

  1. RFC Generator技能会引导AI构建一份结构化的RFC文档。
  2. 文档会强制包含:概述、动机、详细设计(包含备选方案A: Apollo Server + Prisma Nexus, 方案B: GraphQL Yoga + Pothos)、数据模型变化、API示例、工作量估算、成功指标、以及详细的权衡分析表
  3. 这个过程中,AI会再次调用Octocode去查找备选方案在GitHub上的真实使用案例、issue讨论,以确保权衡分析的客观性。

第三步:实施与代码编写(使用 Engineer 技能辅助)方案通过后,开始编码。此时,Engineer技能成为得力助手。

  • 理解现有代码:当你对某个现有的REST控制器感到疑惑时,可以让AI“跳转到定义”并“查找所有引用”,快速理清它的职责和调用关系。
  • 编写新代码:你可以让AI“基于/api/users现有的REST逻辑,编写一个等价的GraphQLUser类型定义和查询解析器”。AI在编写时,会参考本地项目的编码风格(通过LSP分析现有文件),并确保导入语句正确。
  • 依赖管理:当你添加新的graphqlapollo-server依赖时,AI可以提醒你检查与现有依赖的版本兼容性。

第四步:代码审查(使用 PR Reviewer 技能)完成开发后,提交Pull Request。你可以将PR链接或本地Diff内容交给PR Reviewer技能。

  1. AI会全面审查代码,不仅看语法,还会进行“LSP流追踪”。例如,它会检查新写的GraphQL解析器是否正确地调用了底层的Prisma查询,并追踪这个Prisma查询涉及的数据模型和关系。
  2. 审查报告会按领域分类,指出可能的问题:比如在“性能”领域,它可能发现某个解析器进行了N+1查询;在“安全性”领域,可能提醒你GraphQL introspection在生产环境应被禁用。

通过这个工作流,Octocode将研究、规划、实施、审查四个关键环节无缝衔接,让AI在整个软件生命周期中提供了贯穿始终的、基于证据的深度支持。

5. 高级配置、问题排查与效能提升

5.1 性能调优与高级配置

Octocode默认配置适用于大多数场景,但对于大型代码库或团队,一些调优能显著提升体验。

缓存策略:Octocode会对GitHub API响应和LSP分析结果进行缓存,以加速重复查询。缓存目录默认在用户主目录下。如果你磁盘空间紧张或希望缓存更持久,可以通过环境变量OCTOCODE_CACHE_DIR自定义位置,并考虑定期清理。

并发与速率限制管理:当同时进行本地LSP分析和多个GitHub搜索时,可能会占用较多资源。在Octocode的配置文件中(如果通过CLI安装,通常会自动生成),你可以调整并发 worker 的数量,以平衡速度和系统负载。对于GitHub API,确保使用OAuth认证以享受更高的速率限制。如果频繁触发限流,可以考虑在配置中增加请求间隔。

本地LSP服务器配置:Octocode需要为你的项目启动对应的语言服务器(如TypeScript的tsserver、Python的pylsp)。确保你的项目环境(node_modules, python虚拟环境)已正确安装,并且Octocode有权限访问。对于非常规的项目结构,可能需要在配置中指定工作区根目录或语言服务器的路径。

5.2 常见问题与排查实录

即使设计再精良的工具,在实际使用中也难免会遇到问题。以下是我在深度使用Octocode过程中遇到的一些典型情况及解决方法。

问题一:AI客户端无法连接或识别Octocode服务器。

  • 症状:在AI客户端中,输入指令没有触发Octocode技能,或者提示“工具未找到”。
  • 排查步骤
    1. 检查MCP配置路径:首先确认你的AI客户端使用的MCP配置文件路径是否正确。Cursor和Claude Desktop的路径可能不同。运行octocode-clidoctor命令(如果支持)或查看其安装日志,通常能找到它修改了哪个文件。
    2. 验证配置文件语法:手动打开MCP配置文件(如mcp.json),检查JSON格式是否正确,特别是结尾的逗号和括号。一个格式错误会导致整个配置被忽略。
    3. 检查服务器可执行性:确保npx命令在系统PATH中,并且网络可以访问npm registry。可以手动在终端运行npx octocode-mcp@latest --version,看能否正常输出版本号。
    4. 重启客户端:修改MCP配置后,必须完全退出并重启AI客户端,因为很多客户端只在启动时读取一次配置。

问题二:GitHub搜索返回结果为空或权限错误。

  • 症状:当进行涉及GitHub的搜索时,AI返回“未找到结果”或“认证失败”。
  • 排查步骤
    1. 确认OAuth状态:运行npx octocode-cli auth status(如果CLI提供此命令)或检查是否有存储token的文件(如~/.octocode/token)存在且未过期。
    2. 检查搜索范围:Octocode默认只能搜索你有权访问的公共仓库和你自己的私有仓库。如果你想让AI搜索你所在组织的私有仓库,需要在GitHub上为OAuth应用授权相应的组织权限。这通常在初次授权时选择,也可以在GitHub设置的“Applications”中管理。
    3. 使用更具体的查询:AI生成的搜索查询可能过于宽泛。尝试在指令中给出更精确的约束,例如“搜索我们组织内(org-name)使用Express和Jest的项目”,而不是“搜索测试框架”。

问题三:本地代码分析(LSP)功能失效。

  • 症状:“跳转到定义”、“查找引用”等功能不起作用,或者报“Language server not available”错误。
  • 排查步骤
    1. 确认项目类型:打开终端,进入你的项目根目录,确保这是一个被支持的语言项目(如包含package.json的JS项目,或包含pyproject.toml的Python项目)。
    2. 检查依赖:对于JavaScript/TypeScript项目,确保node_modules已安装(运行npm installyarn)。对于Python项目,确保虚拟环境已激活且依赖已安装。
    3. 查看日志:Octocode MCP服务器在运行时可能会输出日志到标准错误或指定文件。查看这些日志(具体位置参考官方Troubleshooting文档)可以获取更详细的错误信息,例如是LSP服务器启动失败还是通信超时。
    4. 尝试简单项目:在一个新的、简单的单文件项目(如一个只有几行代码的index.js)中测试LSP功能,以排除复杂项目结构导致的问题。

问题四:技能执行缓慢或超时。

  • 症状:执行一个复杂的Research或Plan任务时,AI长时间没有响应,或者最终超时。
  • 原因与解决
    • 任务过于宏大:像“研究如何构建一个分布式系统”这样的任务范围太广。将其拆解为更小的子任务,例如“研究分布式系统中的服务发现机制”。
    • 网络延迟:GitHub API调用和npm包信息查询受网络影响。对于关键工作,确保网络稳定。
    • 客户端上下文限制:AI客户端本身有上下文长度限制。如果Octocode返回的代码上下文非常庞大(例如分析一个巨大的文件),可能会挤占对话空间。在技能配置或指令中,可以尝试要求AI“优先总结核心逻辑,而非引用全部代码”。

5.3 安全与隐私考量

使用Octocode这类深度集成工具,必须关注安全和隐私。

  • 代码泄露风险:Octocode会将你的本地代码内容发送给AI服务提供商(如Anthropic的Claude、Cursor的AI模型)进行处理。你需要信任这些提供商的数据处理政策。切勿在包含高度敏感信息(如生产环境密钥、未加密的个人数据)的代码库中使用。可以考虑在隔离的开发环境或使用脱敏后的代码副本进行操作。
  • GitHub令牌安全:OAuth令牌是访问你GitHub账户的钥匙。确保运行Octocode的机器是安全的,并定期在GitHub上检查已授权应用,撤销不再使用的令牌。
  • 技能来源:只从官方仓库或可信来源安装技能。技能本质是一系列提示词和工具调用指令,恶意的技能可能引导AI执行有害操作。

我个人在实际使用中的体会是,Octocode代表了一种AI与开发者工具融合的新范式。它最大的价值不在于替代开发者,而在于极大地压缩了“信息查找”和“上下文建立”的时间。以前需要反复在IDE、浏览器、文档之间切换的操作,现在可以自然地用语言描述给AI,并由它在丰富的上下文中完成。这让我能更专注于真正的设计思考和创造性工作。当然,它目前对网络和计算资源有一定要求,并且输出的质量依然依赖于底层大模型的能力。但对于任何希望提升研发效率、特别是需要频繁探索和理解新代码库的工程师或技术负责人来说,Octocode都是一个值得深入尝试和配置的强大杠杆。

http://www.jsqmd.com/news/706634/

相关文章:

  • 量子机器学习中的脉冲控制技术:突破NISQ时代瓶颈
  • 示波器实测IIC总线:从SCL/SDA波形到tHD;STA等时序参数,手把手教你避坑
  • Arm系统缓存组架构与CCIX端口聚合配置详解
  • 告别固定长度!用HAL库搞定普冉PY32串口不定长接收(附printf重定向保姆级代码)
  • OpenCV图像特征提取:Canny边缘与Harris角点检测实战
  • SAP MIRO批量发票校验后,应付科目金额怎么按暂估比例拆分?一个FMRESERV增强实例
  • 字符级神经语言模型:原理、实现与应用场景
  • 如何打造出色的机器学习作品集:从项目选择到展示技巧
  • CPUDoc:免费开源的Windows CPU优化神器,5分钟提升电脑性能7%
  • 多核SoC性能分析与虚拟原型技术实践
  • 从Kubernetes边缘集群到裸金属部署:MCP 2026全栈优化链路拆解(含eBPF内核级调参参数表)
  • Jetson Nano GPIO编程避坑指南:从引脚模式选择、警告消除到安全清理的正确姿势
  • TypeHero:通过游戏化挑战与开源实战,深度掌握TypeScript高级类型系统
  • ARM Cortex-A9 CP15寄存器架构与系统控制详解
  • 开源语音对话机器人Vocal-Agent:本地化部署与二次开发指南
  • 编程能力成AI新战场:DeepSeek与OpenAI大决战开启!
  • PyTorch训练管理:检查点与早停机制实战指南
  • 剑指Offer 53 - II. 【二分法】(有序数组)【0 ~ n-1】中缺失的 1 个数字(Easy)
  • ARM VFP11浮点异常处理机制详解
  • ASCIIVision:用Rust构建的All-in-One终端桌面环境
  • envd:AI开发环境管理利器,告别配置依赖冲突与协作难题
  • 机器视觉编码技术VCM与FCM解析及应用
  • 热吸成型辅机(说明书+CAD+SolidWorks+开题报告+任务书……)
  • 计算机毕业设计:Python股票数据分析与预测系统 Flask框架 深度学习 机器学习 AI 大模型(建议收藏)✅
  • 解锁微软VS Code扩展限制:在非官方编辑器中使用C#/C++扩展
  • Ledger携手京东开启官方授权新篇章
  • 机器学习与统计学术语对照解析与应用指南
  • 别再只会用任务管理器了!用Windows自带命令wmic memorychip,一键获取内存条品牌、频率、序列号等详细信息
  • Arduino Sensor Kit Base使用指南与项目实践
  • 【第5章 AI Agent 与工具调用】5.4 Agent 自我评估:反思与自我纠正机制