DeerFlow 系列教程 第十三篇 | 大模型适配——多 Provider 支持与思考模式
DeerFlow 系列教程 第十三篇
本篇教程继续模块四:高级功能与扩展,全面剖析 DeerFlow 的大模型适配层。我们将深入理解模型工厂的动态加载机制、七种 Provider 实现的设计差异、思考模式(Thinking Mode)在不同模型架构下的适配策略、Responses API 的 Codex 集成,以及统一凭证加载的安全设计。
前置知识
在开始之前,建议你已阅读:
- 第 07 篇:Lead Agent 深度解析——理解 Agent 如何创建和使用模型实例
- 第 08 篇:中间件体系——了解
LlmErrorHandlingMiddleware在模型调用中的拦截机制 - 第 12 篇:Tools 工具体系——理解工具绑定(
bind_tools)如何与模型交互
一、模型工厂(create_chat_model())
1.1 模型在架构中的位置
在 DeerFlow 中,大模型(LLM)是 Agent 的"大脑"。每一次 Agent 推理循环都需要调用大模型来生成决策——选择工具、生成回复或进行思考。create_chat_model()
