当前位置: 首页 > news >正文

OpenClaw 如何换模型 API:完整配置指南(2026)

OpenClaw 支持通过修改 models.json 配置文件或使用 /model 命令,随时切换 OpenAI、Claude、Gemini、Ollama 等 30+ 家模型提供商的 API。切换无需重启,配置生效即时生效。

openclaw如何换模型API-img1


OpenClaw 支持哪些模型 API?

OpenClaw 将模型提供商分为三类,覆盖主流云端与本地部署场景:

云端 API 提供商

提供商 代表模型 适用场景
Anthropic claude-sonnet-4-6、claude-opus-4-6 代码、推理、长文本
OpenAI gpt-5、gpt-5.4 通用对话、函数调用
Google gemini-2.0-flash、gemini-pro 多模态、搜索增强
xAI grok-3 实时信息查询
Mistral mistral-large、codestral 欧洲合规场景
Groq llama-3.3-70b 超低延迟推理
Perplexity sonar-pro 联网搜索回答

国内大模型提供商

OpenClaw 原生支持以下国内模型,无需任何代理:

  • DeepSeek(DeepSeek-V3、DeepSeek-R1)
  • Moonshot / Kimi(moonshot-v1-8k/32k/128k)
  • 智谱 GLM(glm-4-plus、glm-zero-preview)
  • MiniMax(abab6.5s)
  • 阿里通义千问 Qwen(qwen-max、qwen-turbo)
  • 字节豆包 Volcengine / Doubao(doubao-pro-32k)
  • 百度千帆 Qianfan(ERNIE-Speed、ERNIE-4.0)

本地部署模型

工具 说明
Ollama 最常用的本地推理方案,支持 Llama、Qwen、Gemma 等
vLLM 高吞吐量服务端推理,适合团队共享
LM Studio 图形化管理本地模型,兼容 OpenAI 接口
SGLang 结构化生成优化,适合 Agent 场景

根据 GitHub 仓库数据,OpenClaw 主仓库(openclaw/openclaw)已获得 331k Stars(截至 2026 年 3 月),生态技能库 VoltAgent/awesome-openclaw-skills 收录超过 5,400 个社区技能


方法一:修改 models.json 配置文件(推荐)

这是最灵活的模型切换方式,支持设置主模型、备用模型和多模型白名单。

第一步:找到配置文件位置

# macOS / Linux
~/.openclaw/models.json# Windows
C:\Users\<用户名>\.openclaw\models.json

第二步:编辑配置文件

基础配置结构如下:

{agent: {// 主模型:切换此处即更换默认模型model: { primary: "anthropic/claude-sonnet-4-6" },// 已启用的模型白名单models: {"anthropic/claude-sonnet-4-6": { alias: "Sonnet" },"anthropic/claude-opus-4-6":   { alias: "Opus" },"openai/gpt-5.4":               { alias: "GPT-5.4" },"deepseek/deepseek-v3":        { alias: "DeepSeek" },},},
}

第三步:配置 API Key

每个提供商的 API Key 在 auth 配置中单独设置:

# 方式一:CLI 交互式配置(推荐新手)
openclaw onboard# 方式二:直接设置环境变量
export ANTHROPIC_API_KEY="sk-ant-..."
export OPENAI_API_KEY="sk-..."
export DEEPSEEK_API_KEY="sk-..."

第四步:验证配置生效

openclaw models list     # 查看当前可用模型
openclaw models status   # 检查各提供商连通性

方法二:聊天中临时切换模型

无需修改配置文件,在对话框内直接使用命令切换,仅对当前会话有效

命令 说明
/model 打开图形化模型选择器
/model list 列出所有已配置的可用模型
/model 3 按列表编号快速切换
/model openai/gpt-5.4 指定完整模型路径切换
/model deepseek/deepseek-v3 切换至 DeepSeek V3

适用场景:需要临时用某个模型处理特定任务(如用 o3 做复杂推理,完成后切回默认模型)。


方法三:CLI 命令行切换

# 永久切换默认模型
openclaw models set anthropic/claude-sonnet-4-6# 查看当前模型配置
openclaw models status# 添加备用模型(fallback)
openclaw models fallbacks add openai/gpt-5.4

设置备用模型(Failover)

当主模型 API 故障或超出速率限制时,OpenClaw 自动切换到备用模型,无感知降级:

{agent: {model: {primary: "anthropic/claude-sonnet-4-6",// 按优先级排列备用链fallbacks: ["openai/gpt-5.4","deepseek/deepseek-v3","ollama/qwen2.5:14b",   // 最终兜底:本地模型],},},
}

这种"云端主力 + 本地兜底"的架构,可将模型不可用时间降至接近零。[数据待核实:建议引用 OpenClaw 官方文档中的 failover 性能数据]

openclaw如何换模型API-img2


接入 Ollama 本地模型

本地模型适合隐私敏感场景或网络受限环境。

前提条件

# 安装 Ollama 并拉取模型
brew install ollama          # macOS
ollama pull qwen2.5:14b      # 下载通义千问 14B
ollama serve                 # 启动本地推理服务(默认端口 11434)

OpenClaw 配置

{agent: {model: { primary: "ollama/qwen2.5:14b" },models: {"ollama/qwen2.5:14b":   { alias: "Qwen-14B-Local" },"ollama/llama3.3:70b":  { alias: "Llama3-Local" },},// 指向本地 Ollama 服务地址providers: {ollama: { baseURL: "http://localhost:11434" },},},
}

国内用户:接入国产大模型的推荐方案

国内网络环境下,直接调用 OpenAI / Anthropic 原生 API 可能存在延迟或连通性问题。以下是两种主流方案:

方案 A:直接配置国产模型 API

OpenClaw 原生支持 DeepSeek、Kimi、GLM 等,无需中转:

{agent: {model: { primary: "deepseek/deepseek-v3" },models: {"deepseek/deepseek-v3":    { alias: "DeepSeek V3" },"moonshot/moonshot-v1-32k": { alias: "Kimi 32K" },"zhipu/glm-4-plus":        { alias: "GLM-4-Plus" },},},
}

方案 B:通过统一 API 网关同时接入多家模型

国内另一种常见做法是使用聚合 API 网关,用一个 API Key、一个 baseURL 访问多家模型,省去为每个提供商单独申请和管理密钥的成本。

七牛云 AI 推理服务(portal.qiniu.com/ai-inference/api-key)同时兼容 OpenAI 和 Anthropic 两种 API 格式,支持 Claude、GPT、Gemini、DeepSeek、Kimi、MiniMax 等主流模型,国内直连无需代理。OpenClaw 配置示例如下:

{agent: {providers: {// 替换 baseURL 和 apiKey,其余配置不变openai: {baseURL: "https://api.qnaigc.com/v1",apiKey:  "YOUR_QINIU_API_KEY",},},model: { primary: "openai/claude-sonnet-4-6" },// 同一个 Key 可自由切换以下所有模型models: {"openai/claude-sonnet-4-6":      { alias: "Claude Sonnet" },"openai/gpt-5.4":                 { alias: "GPT-5.4" },"openai/gemini-3.0-flash":       { alias: "Gemini Flash" },"openai/deepseek-v3":            { alias: "DeepSeek V3" },"openai/moonshot-v1-32k":        { alias: "Kimi 32K" },"openai/abab6.5s":               { alias: "MiniMax" },},},
}

这种方案的优势是:只需在七牛云申请一次 API Key,即可在 OpenClaw 中自由切换上述所有模型,不需要分别注册 Anthropic、OpenAI、Google 等多个海外账号。

三种方案对比

维度 方案 A:直接配置国产 API 方案 B:七牛云聚合 API 原生海外 API
网络延迟 低(< 100ms) 低(国内直连) 可能受限
支持模型 国产模型为主 Claude/GPT/Gemini/DeepSeek/Kimi/MiniMax 等 对应提供商模型
账号管理 每家单独申请 Key 一个 Key 多模型 每家单独申请
中文理解 优秀 优秀 良好
合规性 满足国内要求 满足国内要求 需评估

零配置方案:Linclaw 桌面版

对于不熟悉命令行配置的用户,七牛云推出的 Linclaw 是 OpenClaw 的桌面封装版本,macOS/Windows 双击安装包即可使用,内置 DeepSeek、Kimi、GLM、MiniMax 一键接入,无需手动编辑配置文件,适合国内企业和非技术用户快速落地 AI 助手。

下载地址:linclaw.qnlinking.com


常见问题

Q:OpenClaw 切换模型后需要重启吗?
不需要。修改 models.json 后,下一次新建会话时自动使用新模型;使用 /model 命令切换则立即生效。

Q:OpenClaw 如何同时配置多个提供商的 API Key?
每个提供商的 Key 独立配置,互不影响。推荐通过 openclaw onboard 交互式向导一次性完成所有提供商的认证,也可以直接设置对应的环境变量(如 ANTHROPIC_API_KEYOPENAI_API_KEY)。

Q:OpenClaw 免费模型有哪些?
通过 OpenRouter 可以访问部分免费模型(如 Meta Llama 3.3 70B Instruct Free);本地部署 Ollama 无调用费用,仅需承担本机算力;DeepSeek API 定价极低,[数据待核实:建议核查 DeepSeek 最新定价页面]。

Q:切换到 OpenRouter 如何配置?
OpenRouter 作为模型聚合平台,统一使用一个 API Key 访问 200+ 模型:

{agent: {providers: {openrouter: {apiKey: "YOUR_OPENROUTER_KEY",},},model: { primary: "openrouter/meta-llama/llama-3.3-70b-instruct" },},
}

Q:models.json 配置格式是 JSON 还是 JSON5?
OpenClaw 使用 JSON5 格式,支持注释(//)和末尾逗号,比标准 JSON 更易维护。配置文件路径默认为 ~/.openclaw/models.json


小结

OpenClaw 的模型切换方案可归纳为三种路径:

  • 即时切换/model 命令,当前会话有效
  • 永久配置:修改 ~/.openclaw/models.json 中的 primary 字段
  • 智能降级:配置 fallbacks 列表,实现主模型故障自动切换

OpenClaw 官方文档(docs.openclaw.ai)对各提供商的配置参数有详细说明,建议参考官方文档获取最新的模型名称格式。本文内容基于 2026 年 3 月数据,模型提供商的 API 格式和定价会持续更新,建议定期查阅各提供商官网核实。


延伸资源:

  • OpenClaw 多模型对比测试:qiniu.com/ai/models
  • OpenClaw 官方文档:docs.openclaw.ai/concepts/models
http://www.jsqmd.com/news/523112/

相关文章:

  • ADB逆向调试黑科技:用dumpsys偷窥竞品App的Fragment架构设计
  • 如何理解和学习flutter技术
  • PEM电解槽Simulink模型,得出I-V曲线图,通过调参可以分析各参数对电解电压的影响。 ...
  • LoRA训练助手效果实测:10张图批量生成,平均响应<2.3秒
  • 2024年最新内网穿透工具横向评测:qydev、飞鸽、nps哪家强?
  • 2026年主数据管理厂商与数据底座厂商推荐,企业选型必备指南 - 品牌2026
  • M2FP模型原理浅析:Mask2Former如何实现多人精准分割?
  • MLX90632红外温度传感器Arduino驱动库详解
  • QuTiP量子计算工具包安装配置指南
  • 2024谷歌开发者账号身份验证失败终极解决方案
  • Vite+Svelte项目如何集成Flowbite?从安装到暗黑模式切换的完整指南
  • solidworks 获得所有设计树信息 包括子特征
  • elasticSearch学习入门-安装使用
  • Wan2.1-umt5创意写作与营销文案生成:多风格把控与品牌调性对齐
  • 51单片机心率计
  • SAS9.4在Win10/Win11上的完整避坑实录:从环境准备到逻辑库报错全解决
  • 2026年资产管理系统主要平台有哪些?靠谱服务商推荐合集 - 品牌2026
  • 第2章作业20260317
  • STM32——FreeRTOS - 任务创建和删除 ~ 动态方法
  • solidworks插件 执行回调这个参数是string是怎么变成方法的
  • 2026年云南型钢生产厂家TOP5实力解析:以品质筑牢根基赋能工程全场景 - 深度智识库
  • 把 AI 当效率武器,用实战练真本事!
  • PHP-Resque部署指南:生产环境配置与监控方案
  • IJPay证书管理完全手册:从申请到部署的全流程指南
  • Go语言错误处理革命:从29934号提案看Go 2的错误值设计
  • ELF文件格式解析:嵌入式ARM固件的链接、加载与执行机制
  • Coding Plan技术解析:AI编程时代的成本优化与效率革命
  • 文脉定序系统内网穿透方案:安全访问本地部署的排序服务
  • 分析深圳太阳能曝气机口碑,哪家比较靠谱 - 工业品网
  • 2026年 角钢/槽钢/工字钢/H型钢/扁钢厂家实力推荐榜:冷镀锌、热轧、Q235B等全品类钢材源头工厂深度解析 - 品牌企业推荐师(官方)