当前位置: 首页 > news >正文

搞懂 MCP:AI 工具协议是怎么一回事

先说结论

MCP 就是一个软件通信协议,专门解决"AI 产品怎么调用外部工具"这个问题。跟 HTTP、WebSocket 一样,是软件和软件之间沟通的规则,只是它诞生在 AI 时代。


为什么需要 MCP?

AI 产品(比如 Cursor、Claude)光靠自己只能"说话",没办法真正去操作 GitHub、查数据库、搜索网页。要有这些能力,就得对接外部工具。

没有 MCP 之前:

每家 AI 产品要用 GitHub,就得自己写一套对接代码。要用 Slack,再写一套。换一个 AI 产品,全部重写。重复劳动,浪费。

有了 MCP 之后:

工具按 MCP 标准做一次,所有支持 MCP 的 AI 产品直接插上就能用。写一次,到处用。


MCP 的全称

Model Context Protocol,直译"模型上下文协议"。

由 Anthropic(Claude 的母公司)在 2024 年底发布并开源。目前 Cursor、Windsurf、Claude Desktop 等主流 AI 产品都已支持,正在成为行业事实标准。


三个角色

MCP 里一共三个角色,搞清楚这三个,就搞清楚了 MCP。

你(用户) ↓ 发消息 AI 产品(Cursor / Claude Desktop) ↓ MCP 协议 MCP Server(独立进程,翻译层) ↓ 调用 真实工具(GitHub / 文件系统 / 数据库)

1. AI 产品 = MCP Client

你直接对话的那个东西。比如 Cursor、Claude Desktop、Windsurf。

它负责理解你的意图,判断需不需要调用工具,然后通过 MCP 协议发出请求。这部分代码已经内置在 AI 产品里了,不需要你写。

2. MCP Server = 翻译层

这是最关键的角色,也是前端工程师最有机会参与的部分。

MCP Server 是一个独立运行的进程,通常就跑在你本地电脑上。它的工作是:

  • 接收 AI 产品发来的 MCP 格式请求
  • 翻译成真实工具能理解的调用(比如 GitHub REST API)
  • 把结果返回给 AI 产品

注意:MCP Server不在 AI 产品里,也不在 GitHub 里,它是独立的中间层。

3. 真实工具 = 被调用的对象

GitHub、文件系统、数据库、搜索引擎……它们本身不知道 MCP 是什么,由 MCP Server 替它们做适配。


一个具体例子

你在 Cursor 里说:"帮我看一下这个 PR 有没有问题"

1. Cursor(MCP Client) → 判断需要查 GitHub → 通过 MCP 协议,发请求给 GitHub MCP Server 2. GitHub MCP Server(本地进程) → 收到请求 → 翻译成 GitHub REST API 调用 → 拿到 PR 内容 → 按 MCP 格式返回给 Cursor 3. Cursor → 拿到 PR 内容 → 交给 AI 模型分析 → 回答你

GitHub 本身没变,AI 模型没变,MCP Server 是中间加的那层胶水。


MCP 不是做 AI 工作流的唯一方式

没有 MCP 也能做 AI 工作流。LangChain、LangGraph、n8n、Dify 都有自己的工具调用机制,MCP 出现之前就存在了。

MCP 解决的是另一个问题:工具的跨产品复用

问题解法
我要做 AI 工作流LangGraph、n8n 等都可以
我写的工具想在多个 AI 产品里用MCP
我想直接用别人写好的工具能力找现成的 MCP Server

对前端工程师意味着什么

MCP Server 本质就是一个后端服务,对外暴露几个标准接口。

你完全可以把写 MCP Server 理解成写普通的 Node.js 服务——只是调用方从"浏览器"换成了"AI 产品"。对有前端基础的人来说,上手门槛很低。

而且现在 MCP 生态已经很丰富,GitHub、Slack、Notion、数据库、浏览器控制……常用工具基本都有人写好了 MCP Server,直接拿来接入就行。

自己写 MCP Server,意味着你封装的能力,可以被任何支持 MCP 的 AI 产品调用——这是前端工程师切入 AI 工具生态的最直接方式。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

​因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

http://www.jsqmd.com/news/534671/

相关文章:

  • 2026膜分离型氮气发生器厂家推荐:质量、售后与性价比全攻略 - 品牌推荐大师
  • AlphaGenome:如何用AI揭示DNA序列的隐藏功能
  • 别再纠结擦除次数了!手把手教你根据硬盘/SSD类型选择NIST 800-88或DoD 5220.22-M标准
  • 雪女-斗罗大陆-造相Z-Turbo学术应用:LaTeX论文插图自动生成实践
  • 协议层中间人攻击无感渗透,深度拆解MCP 2.0 TLS握手缺陷与零信任补丁实践,
  • CY7C68013芯片开发指南:用CyAPI库快速实现USB设备枚举(附VS2022工程模板)
  • 2026试验箱市场最新动态,快速温变试验箱厂家选型必看指南! - 品牌推荐大师1
  • 1Drake:面向机器人开发的模型设计与验证框架
  • ArtPlayer.js性能优化与源码架构解析:深入理解现代视频播放器设计
  • Python实战:5步搞定MFCC语音特征提取(附完整代码)
  • C语言处理JSON数据?cJSON库这些隐藏技巧让你的代码更高效
  • 一人公司时代,你的OpenClaw用对了吗?
  • FPGA并串转换避坑指南:OSERDES级联、Latency计算与三态控制的那些坑
  • DeOldify图像上色服务Java集成实战:SpringBoot微服务调用案例
  • 5个技巧教你用抖音批量下载工具实现无水印资源高效管理 | 内容创作者必备
  • AI头像生成器实战案例:为跨境电商独立站批量生成各国文化适配头像文案
  • Verge:轻量级视口检测与DOM操作工具库全解析
  • Win10文件夹备注技巧:让文件管理更高效
  • StegaStamp实战:如何用深度学习给照片添加隐形二维码(附Python代码)
  • LVGL界面汉化实战:除了SourceHanSerifSC,Gui Guider里还有哪些隐藏的中文字体选项?
  • 龙芯处理器功耗优化完整解决方案:从电路到系统的多级优化指南
  • 3步搞定:如何为开源SPI Flash驱动库贡献新硬件支持
  • 使用MobaXterm高效管理远程PyTorch服务器:图形化SFTP与终端操作
  • 如何用circlize破解高维数据可视化难题?5大场景实战指南
  • AudioSeal技术博文:AudioSeal vs Watermarking-LLM音频水印方案对比
  • Python 自定义异常体系设计:从基础原理到 SDK 实战的最佳实践*
  • 用PyTorch LSTM预测股价:从Tushare数据获取到模型部署的完整避坑指南
  • 嵌入式C语言悬空指针与野指针解析与防范
  • 拜尔模板(Bayer Pattern)在数字图像处理中的核心作用与优化策略
  • RRT算法实战:从零开始用Python实现机器人路径规划(附完整代码)