Windows本地部署Ollama+OpenClaw,轻松上手
一篇带你搞定:Ollama 安装、本地模型下载、OpenClaw 配置、后台启动、常见报错排查
很多人第一次折腾本地大模型,都会卡在这几个地方:
- Ollama 装好了,但不知道怎么拉模型
- 模型能跑起来,但 OpenClaw 不知道怎么接
- 初始化时一堆
custom、base URL、API Key,根本不知道该填什么 - 后台打不开,或者工具调用直接报错
这篇文章我就用Windows环境,从 0 开始带你走一遍:
- 安装Ollama
- 下载并运行DeepSeek-R1:8B
- 安装OpenClaw
- 正确填写初始化配置
- 启动并访问 OpenClaw 后台
- 顺手把几个最容易踩的坑一起讲清楚
如果你只是想快速体验本地大模型,这篇照着做基本就能跑通。
一、先说清楚:这套东西到底谁负责什么?
很多人第一次看这几个名字会有点懵,其实可以这样理解:
- Ollama:本地大模型运行平台
- DeepSeek-R1:8B:你实际运行的模型
- OpenClaw:让模型具备“做事能力”的智能中枢
一句话理解:
Ollama 负责把模型跑起来,OpenClaw 负责让模型真正干活。
比如你只装 Ollama,那模型更多就是“本地聊天”。
但如果你再接上 OpenClaw,它就可以进一步做一些更复杂的事情,比如工具调用、任务执行、工作区管理等。
二、为什么我这里选 DeepSeek-R1:8B?
这次示例里我选择的是:
deepseek-r1:8b原因主要有这几个:
- 可以直接通过 Ollama 拉取,部署方便
- 8B 模型对普通电脑相对更友好
- 作为本地入门模型,比较适合先把流程跑通
不过这里也提前说一句实话:
如果你的电脑性能一般,那么 OpenClaw + 本地 8B 的交互速度,大概率不会特别快。
所以如果你只是想先体验 OpenClaw,也可以考虑先用云模型或者 API Key,一般都会注册送一些tokens的,够玩的。
本地方案的优点是:不消耗 token,更适合自己折腾和学习。
三、先装 Ollama
1、下载 Ollama
打开官网:
https://ollama.com/然后点击Download,选择Windows版本下载安装。
下载完成后直接双击安装,基本一路下一步就行。
安装成功后,任务栏右下角一般会出现一个小羊驼图标,这说明 Ollama 已经在后台运行了。
2、验证 Ollama 有没有装好
按下:
Win + R输入:
cmd打开命令行后,执行:
ollama如果命令能正常响应,说明 Ollama 已经装好了。
四、下载并运行 DeepSeek-R1:8B
接下来直接拉模型。
在命令行中执行:
ollama run deepseek-r1:8b第一次执行时,它会自动做两件事:
- 下载
deepseek-r1:8b - 下载完后直接进入对话界面
下载时间看网速,慢一点也正常,耐心等就行。
下载完成后,你会看到类似这样的提示:
>>>这时候你可以输入一句话测试一下,比如:
你好如果模型能正常回复,说明本地模型已经部署成功了。
退出当前会话可以输入:
/bye以后怎么再次启动模型?
很简单,还是执行这条命令:
ollama run deepseek-r1:8b它不会重复下载,而是直接启动本地已有模型。
五、安装 OpenClaw 前,先装 Node.js
OpenClaw 依赖 Node.js,所以这一步不能省。
1、下载 Node.js
打开官网:
https://nodejs.org/下载LTS 版本,也就是长期支持版。
安装过程中,如果看到这个选项:
Automatically install the necessary tools建议勾上。
这个选项会帮你自动装一些可能需要的依赖,后面会省掉不少麻烦。
2、验证 Node.js 和 npm
安装完成后,重新打开命令行,执行:
node--versionnpm--version如果能看到类似下面这样的输出:
v22.x.x 10.x.x说明 Node.js 和 npm 已经安装成功。
六、安装 OpenClaw
这里给你两种方式。
方式一:推荐新手,直接一键拉起
直接执行:
ollama launch openclaw这个方式对新手最友好,因为它会自动帮你处理很多事情,比如:
- 如果没装 OpenClaw,会自动提示安装
- 自动做初始配置
- 自动接上 Ollama
- 自动安装并启动后台服务
如果你的目标是:
先跑通,再慢慢研究细节
那优先推荐这个方法。
方式二:手动安装 OpenClaw
如果你更喜欢自己一步一步装,也可以执行:
npminstall-gopenclaw@latest安装完成后,再执行初始化:
openclaw onboard七、OpenClaw 初始化时,到底该怎么填?
这一段是全篇最重要的地方。
因为很多人就卡死在这里。遇到Yes和No就选Yes。下面没说的,都选择默认的
1、如果让你选 Provider,选什么?
选:
Ollama因为你现在接的是本地 Ollama,如果没有这个选项就选”Custom Provider“,一定不要是云厂商 API,当然如果你已经注册其他云厂商的账户,一般会送一些tokens,这时候就选择对应的厂商就行了。
2、如果看到 Base URL / Custom base URL,填什么?
这里填的是Ollama 地址:
http://127.0.0.1:11434注意,这里填的是地址,不是模型名。
3、model ID,填什么?
这里才是填模型名的位置:
deepseek-r1:8b4、API Key 怎么填?
如果你用的是本地 Ollama,
一般不用 API Key,直接回车跳过就行。
这一点别乱填。下一步Endpoint compatibility选择OpenAI-compatible
5、工作区路径怎么填?
通常直接回车,使用默认路径就可以,例如:
C:\Users\你的用户名\.openclaw6、是否安装守护进程怎么选?
建议选:
Yes这样 OpenClaw 会在后台持续运行,不会因为你把当前命令窗口关掉就停掉。
八、一个超容易踩坑的点:千万别填/v1
很多人网上抄教程,最容易抄错的地方就是这个。
当然了,也可以都试一下,我再配置的时候是没有加v1的。
OpenClaw 接 Ollama 时,应该填:
http://127.0.0.1:11434不要填:
http://127.0.0.1:11434/v1为什么?
因为/v1是 OpenAI 兼容接口,不是这里推荐的原生 Ollama 地址。
填错之后,很可能出现这些问题:
- 工具调用异常
- 模型输出原始 JSON
- 后台能连上,但行为不正常
这一点一定记住。
九、验证 OpenClaw 有没有跑起来
初始化完成后,执行:
openclaw gateway status如果输出里包含:
running说明 OpenClaw 已经正常运行了。
十、如何打开 OpenClaw 后台?
有两种方法。
方法 1:命令打开
openclaw dashboard方法 2:浏览器直接访问
http://127.0.0.1:18789/如果前面的服务都正常,这里就可以打开后台页面。
十一、首次登录怎么处理?
不同版本的 OpenClaw,首次登录方式可能有点区别。
常见情况是:
- 浏览器认证
- 本地 token 配对
- 从配置目录读取认证信息
如果你本地版本仍然是 token 方式,一般可以去配置目录里找,例如:
C:\Users\你的用户名\.openclaw\如果发现文件名和别人教程里不一样,不用慌,以你本机实际生成的配置文件为准。
十二、DeepSeek-R1:8B 工具调用不稳定怎么办?
如果你发现
deepseek-r1:8b在 OpenClaw 里工具调用不稳定,或者直接输出原始工具 JSON,可以先在后台把工具调用关掉,先当纯对话模型使用。
当然原因可能有很多,比如(可以把错误信息给ai):
- Base URL 填错了
- 模型本身在本地场景下表现不稳定
- 上下文不够
- 当前版本兼容性一般
十三、常见问题排查
1、ollama run deepseek-r1:8b下载很慢
这是正常现象,模型文件不小,下载速度主要取决于网络。
建议检查:
- 网络是否稳定
- Ollama 是否正常在后台运行
只要没中断,就继续等。
2、node --version或npm --version无法识别
一般有这几种原因:
- Node.js 没装成功
- 环境变量没刷新
- 命令行窗口没重开
解决方式通常很简单:
- 先把当前命令行关掉重新打开
- 再不行就重启电脑
3、openclaw命令无法识别
通常是:
- OpenClaw 没安装成功
- npm 全局安装路径没有加入环境变量
可以重新执行:
npminstall-gopenclaw@latest然后重新打开命令行再试。
4、openclaw gateway status没显示 running
可以优先尝试重新初始化:
openclaw onboard如果你想省事一点,也可以直接再执行一次:
ollama launch openclaw5、后台打不开
优先排查这几个点:
- OpenClaw 网关是否正常运行
- 本地防火墙是否拦截端口
- 地址是否输对
- 是否完成首次认证
- Base URL 有没有误填成
/v1
最后这一点真的特别常见。
十五、总结:这套方案值不值得折腾?
我的结论是:
值得,但要有合理预期。
如果你只是想:
- 本地跑一个模型
- 不想用 API Key
- 想自己折腾 Agent
- 想做一套个人 AI 工作台
那这套方案非常适合你。
但如果你更在意:
- 响应速度
- 稳定性
- 工具调用效果
- 开箱即用体验
那很多情况下,直接用云模型反而更省心。
所以最现实的建议是:
本地部署适合学习、实验和折腾;云模型更适合稳定生产使用。
附:命令汇总
# 运行本地模型ollama run deepseek-r1:8b# 查看 Node.js 和 npm 版本node--versionnpm--version# 推荐方式:一键启动 OpenClawollama launch openclaw# 手动安装 OpenClawnpminstall-gopenclaw@latest# 手动初始化openclaw onboard# 查看 OpenClaw 网关状态openclaw gateway status# 打开 OpenClaw 后台openclaw dashboard附:一句话记住初始化填写逻辑
Provider 选 Ollama Custom base URL 填 http://127.0.0.1:11434 Custom model ID 填 deepseek-r1:8b API Key 本地一般直接跳过