当前位置: 首页 > news >正文

[AI/应用/MCP] MCP Server/Tool 开发指南创

简介

langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。

环境配置

安装langchain框架

pip install langchain langchain-community

其中langchain可以提供了各种大模型语言库选择,(这里只列举几个)例如:

#chatgpt

pip install langchain-openai

#hugging face

pip install langchain-huggingface

#千问

pip install langchain-qwq

1. 让模型跑起来

如何让你llm跑起来,这里用的是千问,来演示

案例

import os

from langchain_community.chat_models.tongyi import ChatTongyi

from langchain_core.prompts import ChatPromptTemplate

from langchain_core.output_parsers import StrOutputParser

#这里是你的千问apikey

os.environ["DASHSCOPE_API_KEY"] = "apikey"

model = ChatTongyi(model="qwen-plus")

prompt = ChatPromptTemplate.from_messages([

("system", "你是一个精通{topic}的资深技术专家。"),

("user", "请用三句话解释一下什么是{concept}。")

])

output_parser = StrOutputParser()

chain = prompt | model | output_parser

#文本输出

response = chain.invoke({"topic": "Python", "concept": "列表"})

print(response)

#分割

print("="*30)

#流式输出

for chunk in chain.stream({"topic": "人工智能", "concept": "神经网络"}):

print(chunk, end="", flush=True)

代码解释

整个代码的流程如下:

创建模型->构建提示词->构建chain链->使用大模型

创建模型

这一步用不同的模型可能会不同

这里利用langchain的千问库创建模型,可能会不同

model = ChatTongyi(model="qwen-plus")

#例如用chatgpt

llm = init_chat_model("gpt-4o", model_provider="openai")

构建提示词

这一步构建利用了langchain库提供提示词模板:

其中用{}阔起来的在调用时可以动态用字典替换

prompt = ChatPromptTemplate.from_messages([

("system", "你是一个精通{topic}的资深技术专家。"),

("user", "请用三句话解释一下什么是{concept}。")

])

各个角色功能如下:

角色名称 (Role) 对应的类 作用说明

system SystemMessage 系统提示词。用于设定 AI 的“人格”、专业背景、行为准则或约束条件。它通常优先级最高,决定了后续对话的基调。

user HumanMessage 用户消息。代表人类发送的内容。这是模型需要直接回答或处理的问题。

ai AIMessage AI 消息。代表模型之前的回复。在构建多轮对话(带记忆)时,需要把模型之前的回复传回去。

构建chain链

这个是langchain的灵魂,这里简单说明,后面会发更详细的教学文章

chain链的运行流程如下:

将输入填充prompt->将完整prompt喂给LLM->直接解析返回文本

StrOutputParser()这个是langchain提供的文本解析器,用于将上面的结果解析为文本

output_parser = StrOutputParser()

chain = prompt | model | output_parser

使用大模型

这里有两种方式:

直接输出完整的文本

response = chain.invoke({"topic": "Python", "concept": "列表"})

print(response)

流文本输出(打字机)

for chunk in chain.stream({"topic": "人工智能", "concept": "神经网络"}):

print(chunk, end="", flush=True)牙途宋兰

http://www.jsqmd.com/news/640878/

相关文章:

  • 为什么CLIPScore、MME、MMBench全失效了?——基于127个真实业务场景的多模态评估指标失效图谱分析
  • 口腔执业医师刷题用哪个?阿虎医考APP三大题库实用解析 - 医考机构品牌测评专家
  • 从Prompt到Harness:下一代AI Agent开发方法论,工程师必须掌握的系统性设计!
  • 0-1 背包进阶:回溯法(子集树)+ 分支限界优化 极致详解(C++ 完整实现)
  • 多模态大模型对齐与融合终极框架(含代码/配置/评估指标):覆盖视觉-语言-语音-时序四模态,仅限首批500名工程师获取完整技术栈
  • 零基础口腔执医上岸经验分享:我用的刷题工具是阿虎医考APP - 医考机构品牌测评专家
  • Qwen3-ASR-0.6B在智能客服的应用:多轮对话理解与响应
  • m4s-converter:5秒无损转换B站缓存视频的终极解决方案
  • AI研究员工业落地:从实验室到产品的过渡
  • 春联生成模型-中文-base实操手册:生成结果导出为SVG/PNG高清图教程
  • opencv深度人工神经网络DNN目录地址
  • 【C++ 基础 】C++14 中为什么 make_shared / make_unique 更安全?
  • Mac上5分钟搞定K3s+kubeflow:开发测试环境搭建全流程(含资源分配避坑指南)
  • 基于V4L2与DRM框架:在RK3588上实现USB摄像头到MIPI屏幕的低延迟图像通路
  • 乡村基蒸菜系列减脂餐外卖有优惠吗?2026这份美团半价活动攻略记得收藏 - 资讯焦点
  • 临床执业医师老师推荐:请看这篇报道 - 医考机构品牌测评专家
  • MedGemma 1.5医疗助手实战:本地部署+思维链解读全攻略
  • 2026跨城包车攻略:聊城到济南包车多少钱多少钱?携程百事通实价揭秘,拒绝隐形消费 - 土星买买买
  • 手把手教你部署MiniCPM-V-2_6:支持图文视频对话,开箱即用
  • 1-1杰理蓝牙SOC的UI配置开发方法
  • 一次性无纺布源头厂家哪家好点 - 企业推荐官【官方】
  • 2026年必知!连续式切丁机生产厂家哪家更胜一筹? - 企业推荐官【官方】
  • 靠谱的河南电缆公司
  • 深度解析CD66e (癌胚抗原相关细胞粘附分子5):分子机制与靶向药物研发进展
  • 【GaussTech技术专栏】GaussDB逻辑解码技术原理
  • 利用MSSQL解析优化数据库性能,提升效率,驱动业务创新与稳定发展
  • AgentCPM深度研报助手Matlab数据分析联动:模型结果深度可视化
  • 3分钟搞定讯飞云 ASR 中英语音识别:MicroPython+uPyPI一键安装驱动包
  • 东莞塑形内衣加盟代理全攻略 塑身内衣塑身衣美体内衣调整型健康塑形产后塑身衣加盟指南 - 企业推荐官【官方】
  • 刚体转动:从概念到解题的思维跃迁