当前位置: 首页 > news >正文

经历分享,发现挖矿木马后,服务器快速备份与重装(云平台)

简介

langchain专门用于构建LLM大语言模型,其中提供了大量的prompt模板,和组件,通过chain(链)的方式将流程连接起来,操作简单,开发便捷。

环境配置

安装langchain框架

pip install langchain langchain-munity

其中langchain可以提供了各种大模型语言库选择,(这里只列举几个)例如:

#chatgpt

pip install langchain-openai

#hugging face

pip install langchain-huggingface

#千问

pip install langchain-qwq

1. 让模型跑起来

如何让你llm跑起来,这里用的是千问,来演示

案例

import os

from langchain_munity.chat_models.tongyi import ChatTongyi

from langchain_core.prompts import ChatPromptTemplate

from langchain_core.output_parsers import StrOutputParser

#这里是你的千问apikey

os.environ["DASHSCOPE_API_KEY"] = "apikey"

model = ChatTongyi(model="qwen-plus")

prompt = ChatPromptTemplate.from_messages([

("system", "你是一个精通{topic}的资深技术专家。"),

("user", "请用三句话解释一下什么是{concept}。")

])

output_parser = StrOutputParser()

chain = prompt | model | output_parser

#文本输出

response = chain.invoke({"topic": "Python", "concept": "列表"})

print(response)

#分割

print("="*30)

#流式输出

for chunk in chain.stream({"topic": "人工智能", "concept": "神经网络"}):

print(chunk, end="", flush=True)

代码解释

整个代码的流程如下:

创建模型->构建提示词->构建chain链->使用大模型

创建模型

这一步用不同的模型可能会不同

这里利用langchain的千问库创建模型,可能会不同

model = ChatTongyi(model="qwen-plus")

#例如用chatgpt

llm = init_chat_model("gpt-4o", model_provider="openai")

构建提示词

这一步构建利用了langchain库提供提示词模板:

其中用{}阔起来的在调用时可以动态用字典替换

prompt = ChatPromptTemplate.from_messages([

("system", "你是一个精通{topic}的资深技术专家。"),

("user", "请用三句话解释一下什么是{concept}。")

])

各个角色功能如下:

角色名称 (Role) 对应的类 作用说明

system SystemMessage 系统提示词。用于设定 AI 的“人格”、专业背景、行为准则或约束条件。它通常优先级最高,决定了后续对话的基调。

user HumanMessage 用户消息。代表人类发送的内容。这是模型需要直接回答或处理的问题。

ai AIMessage AI 消息。代表模型之前的回复。在构建多轮对话(带记忆)时,需要把模型之前的回复传回去。

构建chain链

这个是langchain的灵魂,这里简单说明,后面会发更详细的教学文章

chain链的运行流程如下:

将输入填充prompt->将完整prompt喂给LLM->直接解析返回文本

StrOutputParser()这个是langchain提供的文本解析器,用于将上面的结果解析为文本

output_parser = StrOutputParser()

chain = prompt | model | output_parser

使用大模型

这里有两种方式:

直接输出完整的文本

response = chain.invoke({"topic": "Python", "concept": "列表"})

print(response)

流文本输出(打字机)

for chunk in chain.stream({"topic": "人工智能", "concept": "神经网络"}):

print(chunk, end="", flush=True)遣讲掣秆

http://www.jsqmd.com/news/716256/

相关文章:

  • 【限时解禁】VS Code Copilot Next 企业版自动化工作流配置包(含Terraform模块+Prometheus成本看板+SLA保障模板)
  • 别再乱调了!手把手教你用ASS字幕代码精准控制字体、颜色和位置(附常用颜色表)
  • :RAG 入门-面试官问你,RAG 为什么要切块?
  • 用STM32 HAL库外部中断做个智能灯控:按键长按、短按、双击的识别实现
  • 基于卷积神经网络思想的提示词优化:提升Phi-mini-MoE-instruct视觉描述能力
  • Claude code接入OpenRouter免费模型教程!
  • 银行网络工程师核心技能清单
  • 从Navicat 16.3降级到15.0:老版本更香?一份平滑降级与数据迁移的实操指南
  • Burp Suite 入门必看|2026 最新保姆级安装教程 + 基础使用指南,一篇搞定
  • 揭秘2048游戏AI助手:让算法带你轻松突破高分瓶颈
  • Windows系统优化神器Dism++:5个常见问题的高效解决方案
  • VCAM虚拟相机:5分钟学会在安卓设备上替换摄像头视频源
  • 灾难来袭:必应突然搜索不到博客园的任何内容
  • 【2026年五一数学建模竞赛A题】完整思路+论文+代码
  • JKW系列无功补偿控制器源程序功能说明
  • 3分钟快速上手Mem Reduct:免费内存清理工具终极指南
  • 【限时解密】某头部金融科技平台Java Serverless架构冷启动SLA达标率从61%→99.99%的17天攻坚日志(含JFR采样原始数据包)
  • AppleRa1n完整指南:3步离线绕过iOS 15-16激活锁的终极解决方案
  • 哔咔漫画下载器:3步打造永不丢失的个人漫画图书馆
  • Windows网络性能测试终极指南:iperf3-win-builds三步快速上手
  • LeetCode热题100-寻找旋转排序数组中的最小值
  • 2026年AI大模型API中转服务揭秘:各平台特色解析,谁是企业开发最优之选?
  • 高质量人体检测与行人识别数据集分享(适用于YOLO系列深度学习分类检测任务)
  • 【花雕动手做】你的 5 美元 AI 助手:PycoClaw 让 ESP32“能聊、会想、可进化”
  • 降AI工具贵的真贵在哪?效果/速度/承诺3维度横评毕业季必看!
  • 无感FOC观测器怎么选?深入对比EKF、滑模与龙伯格在PMSM控制中的实战表现
  • 微电网储能协同架构设计:储能位置、容量配置与控制逻辑
  • 当朴素贝叶斯遇到‘非朴素’数据:离散化与编码策略深度实战指南
  • AD23隐藏技巧:用Smart PDF功能一键生成带BOM和分层图的完整项目文档
  • 重生AI Agent应用开发工程师之RAG知识库与MCP协议工具