当前位置: 首页 > news >正文

LangChainV1.0[07]-RAG-检索增强生成

本节完成官方案例:Build a RAG agent with LangChain

文档路径: Learn->LangChain -> RAG agent , 文档地址:https://docs.langchain.com/oss/python/langchain/rag 。 主要完成两个功能:

  1. 索引:从网页获取知识,将知识向量化后存储到向量数据库
  2. RAG: 提出问题后先到向量数据库检索(R-Retrieval) ,然后将检索的结果和问题一起发送给大模型(A-Augmented) , 最终大模型给出答案(G-Generation)

1.文档加载

需要从网页加载文档,所以会用到Python 第三方库 :Beautify Soup简称:BS4,它可以从 HTML 或 XML 文档中快速地提取指定的数据。Beautiful Soup 语法简单,使用方便,并且容易理解.

# 安装 bs4 依赖pipinstallbs4

这里定义一个函数,并进行测试:

chapter07/rag-demo.py

importbs4fromlangchain_community.document_loadersimportWebBaseLoaderdefload_web(url:str):# 创建一个 SoupStrainer 对象, 用于过滤掉不需要的标签bs4_strainer=bs4.SoupStrainer()loader=WebBaseLoader(# 这个参数可以指定多个网页路径,是一个Tuple类型。# 因为这里只传入了一个url,元祖中只有一个元素。# 如果后面没有逗号,则Python会认为是一个普通的括号,而不是元素。这是url后面为什么有一个逗号的原因web_paths=(url,),bs_kwargs={"parse_only":bs4_strainer,# 指定过滤器})returnloader.load()if__name__=='__main__':docs=load_web("https://news.cctv.com/2026/01/04/ARTIvjEzc0cszhUpOlfZJz1v260104.shtml?spm=C94212.P4YnMod9m2uD.ENPMkWvfnaiV.13")print(f"文档个数:{len(docs)}, 标题:{docs[0].metadata['title']}")print(f"内容(前100个字符):{docs[0].page_content[:100]}")

2.拆分文档

前面代码获取到了一个网页内容,这个内容现在需要被拆分:

chapter07/rag-demo.py

fromlangchain_text_splittersimportRecursiveCharacterTextSplitterdefsplitDocs(docs):""" 将 Document 数组拆分为多个 Document 数组 :param docs: Document 数组 :return: 拆分后的 Document 数组 """text_splitter=RecursiveCharacterTextSplitter(chunk_size=1000,separators=["\n\n","\n","."," ",""],chunk_overlap=128)# 一个List[Document], 每个元素是一个文档块all_splits=text_splitter.split_documents(docs)print(f"拆分后的文档数量:{len(all_splits)}")returnall_splitsif__name__=='__main__':docs=load_web("https://news.cctv.com/2026/01/04/ARTIvjEzc0cszhUpOlfZJz1v260104.shtml?spm=C94212.P4YnMod9m2uD.ENPMkWvfnaiV.13")all_splits=splitDocs(docs)# 拆分后的文档数量:8

3.存入Vector Stores

这里我使用的是本地ollama 中安装的bge-m3:567m模型,需要提前在ollama中拉取:

ollama pull bge-m3:567m

前面章节中我们用到了chroma向量数据库,我们采用的是DashScopeEmbeddings即百炼的向量模型,本次使用在 ollama 中拉取的bge-m3:567m模型。官方文档:https://docs.langchain.com/oss/python/integrations/text_embedding 中提供了OllamaEmbeddings

3.1 什么是Vector Store?

Vector Store(向量存储)是一种专门用于存储高维向量(通常是文本经过嵌入模型转换后的向量表示)并支持快速相似性搜索的数据结构或数据库。其主要功能包括:

  • 存储:将文本块(chunks)及其对应的嵌入向量(embeddings)保存起来。
  • 检索:给定一个查询(query),将其转换为向量后,在向量空间中查找“最相似”的向量(通常用余弦相似度、欧氏距离等度量),返回对应的原始文本。

LangChain 为所有向量数据库提供了一致的抽象接口,开发者无需因更换底层数据库而重写业务逻辑。主要方法包括:

方法功能
add_documents(documents, ids=...)添加带内容和元数据的文档
delete(ids=...)按 ID 删除文档
similarity_search(query, k=4, filter=...)执行语义相似性搜索

这使得你可以轻松在ChromaFAISSPinecone等之间切换。

官方文档: https://docs.langchain.com/oss/python/integrations/vectorstores#ollama 有说明

3.2 创建Vector Store

fromlangchain_ollamaimportOllamaEmbeddingsfromlangchain_chromaimportChromadefget_vectory_store():# 创建一个向量模型embedding_modle=OllamaEmbeddings(model="bge-m3:567m",base_url="http://192.168.6.133:11434")vector_store=Chroma(# 创建一个向量集合collection_name="news_collection",# 向量模型embedding_function=embedding_modle,# 向量数据库保存目录persist_directory="./chroma_langchain_db",)returnvector_store

这个函数执行后,将会创建索引数据库:

3.3 保存拆分后的文档

因为vector store 提供了统一的入口,保存拆分后的文档的时候,它会自动调用为他设定的 embedding model 进行向量化,然后保存到对应的向量数据库中。

if__name__=='__main__':docs=load_web("https://news.cctv.com/2026/01/04/ARTIvjEzc0cszhUpOlfZJz1v260104.shtml?spm=C94212.P4YnMod9m2uD.ENPMkWvfnaiV.13")all_splits=splitDocs(docs)# 拆分后的文档数量:8# 创建vectory storevectory_store=get_vectory_store()# 保存文档vectory_store.add_documents(all_splits)

4.检索工具

在这里,我们使用“工具装饰器”来配置工具,以便将原始文档作为“附件”附加到每个“ToolMessage”中。这样,我们就能在应用程序中访问文档的元数据,而这些元数据与发送到模型的字符串化表示是分开的。

defcreate_retrieve_tool(vector_store):# 将检索工具用函数封装起来,因为它需要用到 vector_store@tool(response_format="content_and_artifact")defretrieve_context(query:str):"""Retrieve information to help answer a query."""retrieved_docs=vector_store.similarity_search(query,k=2)serialized="\n\n".join((f"Source:{doc.metadata}\nContent:{doc.page_content}")fordocinretrieved_docs)returnserialized,retrieved_docsreturnretrieve_context

这里之所以用create_retrieve_tool函数将工具声明封装起来,是因为在工具中要用到vector_store进行相似度搜索。

5.创建RAG agent

接下来我们需要创建一个 RAG agent,将上面创建的tool交给它,然后提出问题。那么agent就会先调用工具进行相似度检索,然后将结果和问题一起发送给大模型,大模型回答后返回结果:

if__name__=='__main__':# 获取 vectory_storevectory_store=get_vectory_store()# 创建检索工具tools=[create_retrieve_tool(vectory_store)]# 对话模型model=init_chat_model(model="ollama:qwen3-next:80b-cloud",base_url="http://127.0.0.1:11434")# 在Python中,当你用括号包围多个字符串时,Python会自动将它们连接成一个单一的字符串。这种做法通常用于提高代码的可读性,特别是当字符串很长时。SYSTEM_PROMPT=("You have access to a tool that retrieves context from a blog post.\n\n""Use the tool to help answer user queries.")# 创建Agentagent=create_agent(model=model,system_prompt=SYSTEM_PROMPT,tools=tools)# 问题question="《固体废物综合治理行动计划》是哪一天由谁印发的?"response=agent.stream({"messages":[{"role":"user","content":question}]},stream_mode="values",)foreventinresponse:# 取最后一条打印event["messages"][-1].pretty_print()

输出:

============= Human Message ============= 《固体废物综合治理行动计划》是哪一天由谁印发的? ============= Ai Message ============= Tool Calls: retrieve_context (409b1e3d-185a-4c48-b64d-cc836d35034a) Call ID: 409b1e3d-185a-4c48-b64d-cc836d35034a Args: query: 固体废物综合治理行动计划 印发日期 印发单位 ============= Tool Message ============= Name: retrieve_context ......省略 ============= Ai Message ============= 《固体废物综合治理行动计划》由国务院于2025年12月27日印发,文件编号为国发〔2025〕14号。该通知明确要求各省、自治区、直辖市人民政府及国务院各部委、各直属机构认真贯彻执行。

可以看到,agent在执行的时候,自动调用了 tool工具到本地向量数据库中进行了相似度搜索。

自动将搜索结果与问题一起发送给了大模型,最终大模型经过思考后,给出了最终答案。很显然它的答案是来自于刚开始从网站上抓取的文章。

http://www.jsqmd.com/news/210759/

相关文章:

  • 科研数据复现:MGeo确保实验条件一致性的关键技术
  • 开发者必看:如何在Conda环境中运行阿里万物识别代码
  • 资深考官亲授:MCP模拟试题精准还原度达95%的备考法
  • Hunyuan-MT-7B-WEBUI实测:民汉互译准确率超90%?真实数据告诉你
  • 万物识别对抗训练:提升模型鲁棒性的快速方案
  • 从零到一:30分钟构建你的第一个中文万物识别系统
  • 【MCP零信任安全实战指南】:从架构设计到落地实施的9大核心步骤
  • UltraISO注册码最新版找不到?先学会用AI翻译获取海外资源
  • Hunyuan-MT-7B-WEBUI深度评测:7B参数下的多语言翻译王者
  • MGeo优化技巧:通过批处理提升GPU利用率至90%以上
  • MCP模拟考试高频错题TOP10(附权威解析与避坑指南)
  • 全网最全专科生必备TOP10 AI论文软件测评
  • GitHub镜像网站推荐:如何快速获取Hunyuan-MT-7B-WEBUI部署资源
  • 端午节由来多语言版本:Hunyuan-MT-7B自动产出科普内容
  • 【MCP AI Copilot考试通关秘籍】:20年专家亲授高分技巧与避坑指南
  • AI赋能电商:快速部署中文商品识别系统
  • 互联网大厂年度总结1000+道高频Java面试题(附答案解析)
  • ISTA2A vs 3A:医疗器械/生物制药包装运输测试选型指南
  • 基于单片机的彩灯控制器的设计
  • deepPCB电路板缺陷检测数据集VOC+YOLO格式1500张6类别
  • AI如何帮你自动生成Python项目配置?PYPROJECT.TOML解析
  • 二十四节气科普文章:Hunyuan-MT-7B生成双语农业指导
  • 室内布局分析:智能家居自动调节灯光温度
  • 快速验证:Android Studio汉化效果原型设计
  • 金融反欺诈实战:利用MGeo发现异常地址模式
  • 剪纸艺术图案寓意:Hunyuan-MT-7B解读红色吉祥符号
  • 支付宝性能测试案例分析详解
  • 零基础理解百度搜索参数DC=Y114PC=是什么
  • 解放生产力:一键部署万物识别微服务架构
  • 华侨家书翻译服务设想:Hunyuan-MT-7B连接亲情桥梁