当前位置: 首页 > news >正文

LangChain4j 项目架构分析

LangChain4j 项目架构分析

请关注公众号【碳硅化合物AI】

概述

LangChain4j 是 Java 生态里的 LLM 集成框架,2023 年初启动,当时 Java 这边还没有成熟的 LLM 库。核心思路是统一 API,降低复杂度。

不同 LLM 提供商(OpenAI、Anthropic、Google 等)的 API 格式不同,向量数据库(Pinecone、Milvus、Chroma 等)的接口也不一样。切换提供商通常需要重写代码。LangChain4j 通过统一接口抽象,让切换只需改依赖,业务代码不变。

实际使用中,这种抽象带来的好处很明显:开发阶段可以用本地模型(Ollama)快速迭代,生产环境切换到 OpenAI 或 Azure,代码几乎不用改。向量存储也是,本地开发用 InMemoryEmbeddingStore,生产用 Pinecone 或 Milvus,接口完全一致。

模块结构

项目是 Maven 多模块,分层清晰:

langchain4j-core是基础层,只定义接口,几乎无外部依赖(只有 Jackson、SLF4J)。定义了ChatModelEmbeddingStoreChatMemory等核心接口,以及DocumentChatMessage等数据模型。

langchain4j是主模块,依赖 core,提供实现:AI Services(声明式接口)、文档加载/分割、记忆实现、RAG 组件等。

集成模块有 50+ 个,分几类:

  • LLM 集成:OpenAI、Anthropic、Google Gemini、Ollama、Azure OpenAI 等 20+ 个
  • 向量存储:Pinecone、Milvus、Chroma、Qdrant、pgvector 等 30+ 个
  • 文档处理:loaders(S3、Azure Blob、GitHub)、parsers(PDF、Word、Markdown)、transformers
  • 其他:agentic(实验性)、mcp、easy-rag、http-client 抽象

这种设计的好处是:只引入需要的模块,不会拖一堆不必要的依赖。比如只用 OpenAI 和 Pinecone,就只引入这两个模块。

模块化架构

依赖关系图

模块依赖层次

  1. 最底层langchain4j-core- 只定义接口,几乎无依赖
  2. 中间层langchain4j- 依赖 core,提供实现
  3. 集成层:各种langchain4j-{provider}模块 - 依赖 core 或主模块,实现具体集成
  4. 聚合层langchain4j-aggregator- 聚合所有模块,用于构建整个项目

这种设计的好处是:

  • 松耦合:每个集成模块可以独立使用
  • 可替换:可以轻松切换不同的提供商
  • 易测试:核心抽象可以独立测试

BOM(Bill of Materials)

项目提供了langchain4j-bom模块,用于统一管理所有模块的版本。使用 BOM 后,你只需要指定 BOM 版本,各个模块的版本会自动对齐:

<dependencyManagement><dependencies><dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-bom</artifactId><version>1.10.0</version><type>pom</type><scope>import</scope></dependency></dependencies></dependencyManagement>

核心用法

AI Services 是框架的核心特性,用接口定义服务,框架自动生成实现(基于动态代理)。

// 定义接口interfaceAssistant{Stringchat(StringuserMessage);}// 创建服务实例ChatModelmodel=OpenAiChatModel.builder().apiKey(System.getenv("OPENAI_API_KEY")).modelName(GPT_4_O_MINI).build();Assistantassistant=AiServices.create(Assistant.class,model);Stringanswer=assistant.chat("Hello");

带记忆的多轮对话:

interfaceChatBot{@SystemMessage("You are a helpful assistant")Stringchat(@MemoryIdStringuserId,StringuserMessage);}ChatBotbot=AiServices.builder(ChatBot.class).chatModel(model).chatMemoryProvider(memoryId->newInMemoryChatMemory(memoryId)).build();bot.chat("user1","What's 2+2?");// 4bot.chat("user1","What did I just ask?");// 能记住之前的问题

RAG 流程:加载文档 → 分割 → 生成嵌入 → 存储 → 检索增强。

// 文档处理DocumentLoaderloader=newFileSystemDocumentLoader(Paths.get("docs"));List<Document>docs=loader.load();DocumentSplittersplitter=newDocumentByParagraphSplitter(300,0);List<TextSegment>segments=splitter.splitAll(docs);// 嵌入和存储EmbeddingModelembeddingModel=newAllMiniLmL6V2EmbeddingModel();EmbeddingStore<TextSegment>store=newInMemoryEmbeddingStore<>();for(TextSegmentsegment:segments){Embeddingembedding=embeddingModel.embed(segment.text()).content();store.add(embedding,segment);}// RAG 服务interfaceRAGService{Stringanswer(Stringquestion);}RAGServiceservice=AiServices.builder(RAGService.class).chatModel(model).contentRetriever(EmbeddingStoreContentRetriever.builder().embeddingStore(store).embeddingModel(embeddingModel).maxResults(3).build()).build();

实际应用

常见场景:智能客服(带记忆)、文档问答(RAG)、内容生成、数据提取分类、Agent 系统(实验性)。

优缺点

优点:统一 API 易切换、声明式编程代码简洁、模块化按需引入、集成丰富(50+ 模块)、Java 原生。

缺点:项目较新生态还在发展、文档示例有限、动态代理有性能开销、学习曲线(特别是 RAG/Agent)、模块多需用 BOM 管理版本。

实际使用建议:开发阶段用本地模型(Ollama)快速迭代,生产环境再切换;向量存储本地用 InMemory,生产用 Pinecone/Milvus;高频调用场景注意性能,可能需要缓存或优化。

http://www.jsqmd.com/news/156761/

相关文章:

  • PyTorch-CUDA-v2.6镜像运行Mask R-CNN实例分割模型实录
  • PyTorch-CUDA-v2.6镜像支持ONNX导出吗?转换流程详解
  • PyTorch-CUDA-v2.6镜像运行EfficientNet图像分类精度测试
  • 图解说明典型PCB设计案例:入门级双层板布局技巧
  • PyTorch-CUDA-v2.6镜像中使用Weights Biases记录训练曲线
  • PyTorch-CUDA-v2.6镜像运行ResNet50图像分类任务 benchmark
  • AI初创团队必备:PyTorch-CUDA-v2.6镜像标准化开发环境
  • GitHub Actions自动化测试PyTorch-CUDA-v2.6镜像稳定性方案
  • 基于微信小程序图像识别的智能垃圾分类系统【源码文末联系】
  • PyTorch-CUDA-v2.6镜像中运行Transformers pipelines示例
  • 基于Django的本地健康宝微信小程序系统【源码文末联系】
  • WinDbg解析minidump文件:完整指南(系统学习)
  • 如何处理 丢失更新​(不可重复读​)
  • 模拟电子技术基础:差分放大器电路完整指南
  • PyTorch-CUDA-v2.6镜像中CUDA_VISIBLE_DEVICES使用技巧
  • 适用于远程教学的proteus8.16下载安装教程操作指南
  • PyTorch-CUDA-v2.6镜像运行目标检测模型YOLOv8性能对比
  • PyTorch-CUDA-v2.6镜像中使用GradCAM可视化注意力区域
  • DAY31 函数专题2:装饰器
  • PyTorch-CUDA-v2.6镜像中安装SpaCy自然语言处理库注意事项
  • DAY31@浙大疏锦行
  • DAY32 类的定义与方法
  • Proteus 8.0时钟信号源详解:晶振与脉冲发生器配置
  • ModbusRTU通信基础:CRC校验计算完整示例
  • 再也不怕环境冲突:PyTorch-CUDA-v2.6镜像隔离式开发体验
  • PyTorch-CUDA-v2.6镜像与VS Code Remote-SSH协作开发指南
  • 如何导出PyTorch-CUDA-v2.6镜像用于私有部署?操作命令分享
  • PyTorch-CUDA-v2.6镜像中安装自定义Python包的方法
  • 超详细版解析c9511e无法确定toolkit
  • 用%20Portainer%20部署%20Nginx%20很简单?加个%20cpolar%20远程访问更给力