当前位置: 首页 > news >正文

Windows本地部署Ollama+OpenClaw,轻松上手

一篇带你搞定:Ollama 安装、本地模型下载、OpenClaw 配置、后台启动、常见报错排查

很多人第一次折腾本地大模型,都会卡在这几个地方:

  • Ollama 装好了,但不知道怎么拉模型
  • 模型能跑起来,但 OpenClaw 不知道怎么接
  • 初始化时一堆custombase URLAPI Key,根本不知道该填什么
  • 后台打不开,或者工具调用直接报错

这篇文章我就用Windows环境,从 0 开始带你走一遍:

  • 安装Ollama
  • 下载并运行DeepSeek-R1:8B
  • 安装OpenClaw
  • 正确填写初始化配置
  • 启动并访问 OpenClaw 后台
  • 顺手把几个最容易踩的坑一起讲清楚

如果你只是想快速体验本地大模型,这篇照着做基本就能跑通。


一、先说清楚:这套东西到底谁负责什么?

很多人第一次看这几个名字会有点懵,其实可以这样理解:

  • Ollama:本地大模型运行平台
  • DeepSeek-R1:8B:你实际运行的模型
  • OpenClaw:让模型具备“做事能力”的智能中枢

一句话理解:

Ollama 负责把模型跑起来,OpenClaw 负责让模型真正干活。

比如你只装 Ollama,那模型更多就是“本地聊天”。
但如果你再接上 OpenClaw,它就可以进一步做一些更复杂的事情,比如工具调用、任务执行、工作区管理等。


二、为什么我这里选 DeepSeek-R1:8B?

这次示例里我选择的是:

deepseek-r1:8b

原因主要有这几个:

  1. 可以直接通过 Ollama 拉取,部署方便
  2. 8B 模型对普通电脑相对更友好
  3. 作为本地入门模型,比较适合先把流程跑通

不过这里也提前说一句实话:

如果你的电脑性能一般,那么 OpenClaw + 本地 8B 的交互速度,大概率不会特别快。

所以如果你只是想先体验 OpenClaw,也可以考虑先用云模型或者 API Key,一般都会注册送一些tokens的,够玩的。
本地方案的优点是:不消耗 token,更适合自己折腾和学习。


三、先装 Ollama

1、下载 Ollama

打开官网:

https://ollama.com/

然后点击Download,选择Windows版本下载安装。

下载完成后直接双击安装,基本一路下一步就行。

安装成功后,任务栏右下角一般会出现一个小羊驼图标,这说明 Ollama 已经在后台运行了。


2、验证 Ollama 有没有装好

按下:

Win + R

输入:

cmd

打开命令行后,执行:

ollama

如果命令能正常响应,说明 Ollama 已经装好了。


四、下载并运行 DeepSeek-R1:8B

接下来直接拉模型。

在命令行中执行:

ollama run deepseek-r1:8b

第一次执行时,它会自动做两件事:

  1. 下载deepseek-r1:8b
  2. 下载完后直接进入对话界面

下载时间看网速,慢一点也正常,耐心等就行。

下载完成后,你会看到类似这样的提示:

>>>

这时候你可以输入一句话测试一下,比如:

你好

如果模型能正常回复,说明本地模型已经部署成功了。

退出当前会话可以输入:

/bye

以后怎么再次启动模型?

很简单,还是执行这条命令:

ollama run deepseek-r1:8b

它不会重复下载,而是直接启动本地已有模型。


五、安装 OpenClaw 前,先装 Node.js

OpenClaw 依赖 Node.js,所以这一步不能省。

1、下载 Node.js

打开官网:

https://nodejs.org/

下载LTS 版本,也就是长期支持版。

安装过程中,如果看到这个选项:

Automatically install the necessary tools

建议勾上。

这个选项会帮你自动装一些可能需要的依赖,后面会省掉不少麻烦。


2、验证 Node.js 和 npm

安装完成后,重新打开命令行,执行:

node--versionnpm--version

如果能看到类似下面这样的输出:

v22.x.x 10.x.x

说明 Node.js 和 npm 已经安装成功。


六、安装 OpenClaw

这里给你两种方式。


方式一:推荐新手,直接一键拉起

直接执行:

ollama launch openclaw

这个方式对新手最友好,因为它会自动帮你处理很多事情,比如:

  • 如果没装 OpenClaw,会自动提示安装
  • 自动做初始配置
  • 自动接上 Ollama
  • 自动安装并启动后台服务

如果你的目标是:

先跑通,再慢慢研究细节

那优先推荐这个方法。


方式二:手动安装 OpenClaw

如果你更喜欢自己一步一步装,也可以执行:

npminstall-gopenclaw@latest

安装完成后,再执行初始化:

openclaw onboard

七、OpenClaw 初始化时,到底该怎么填?

这一段是全篇最重要的地方。

因为很多人就卡死在这里。遇到Yes和No就选Yes。下面没说的,都选择默认的


1、如果让你选 Provider,选什么?

选:

Ollama

因为你现在接的是本地 Ollama,如果没有这个选项就选”Custom Provider“,一定不要是云厂商 API,当然如果你已经注册其他云厂商的账户,一般会送一些tokens,这时候就选择对应的厂商就行了。


2、如果看到 Base URL / Custom base URL,填什么?

这里填的是Ollama 地址

http://127.0.0.1:11434

注意,这里填的是地址,不是模型名。


3、model ID,填什么?

这里才是填模型名的位置:

deepseek-r1:8b

4、API Key 怎么填?

如果你用的是本地 Ollama,

一般不用 API Key,直接回车跳过就行。

这一点别乱填。下一步Endpoint compatibility选择OpenAI-compatible


5、工作区路径怎么填?

通常直接回车,使用默认路径就可以,例如:

C:\Users\你的用户名\.openclaw

6、是否安装守护进程怎么选?

建议选:

Yes

这样 OpenClaw 会在后台持续运行,不会因为你把当前命令窗口关掉就停掉。


八、一个超容易踩坑的点:千万别填/v1

很多人网上抄教程,最容易抄错的地方就是这个。
当然了,也可以都试一下,我再配置的时候是没有加v1的。

OpenClaw 接 Ollama 时,应该填:

http://127.0.0.1:11434

不要填:

http://127.0.0.1:11434/v1

为什么?

因为/v1是 OpenAI 兼容接口,不是这里推荐的原生 Ollama 地址。
填错之后,很可能出现这些问题:

  • 工具调用异常
  • 模型输出原始 JSON
  • 后台能连上,但行为不正常

这一点一定记住。


九、验证 OpenClaw 有没有跑起来

初始化完成后,执行:

openclaw gateway status

如果输出里包含:

running

说明 OpenClaw 已经正常运行了。


十、如何打开 OpenClaw 后台?

有两种方法。

方法 1:命令打开

openclaw dashboard

方法 2:浏览器直接访问

http://127.0.0.1:18789/

如果前面的服务都正常,这里就可以打开后台页面。


十一、首次登录怎么处理?

不同版本的 OpenClaw,首次登录方式可能有点区别。

常见情况是:

  • 浏览器认证
  • 本地 token 配对
  • 从配置目录读取认证信息

如果你本地版本仍然是 token 方式,一般可以去配置目录里找,例如:

C:\Users\你的用户名\.openclaw\

如果发现文件名和别人教程里不一样,不用慌,以你本机实际生成的配置文件为准


十二、DeepSeek-R1:8B 工具调用不稳定怎么办?

如果你发现deepseek-r1:8b在 OpenClaw 里工具调用不稳定,或者直接输出原始工具 JSON,可以先在后台把工具调用关掉,先当纯对话模型使用。

当然原因可能有很多,比如(可以把错误信息给ai):

  • Base URL 填错了
  • 模型本身在本地场景下表现不稳定
  • 上下文不够
  • 当前版本兼容性一般

十三、常见问题排查

1、ollama run deepseek-r1:8b下载很慢

这是正常现象,模型文件不小,下载速度主要取决于网络。

建议检查:

  • 网络是否稳定
  • Ollama 是否正常在后台运行

只要没中断,就继续等。


2、node --versionnpm --version无法识别

一般有这几种原因:

  • Node.js 没装成功
  • 环境变量没刷新
  • 命令行窗口没重开

解决方式通常很简单:

  • 先把当前命令行关掉重新打开
  • 再不行就重启电脑

3、openclaw命令无法识别

通常是:

  • OpenClaw 没安装成功
  • npm 全局安装路径没有加入环境变量

可以重新执行:

npminstall-gopenclaw@latest

然后重新打开命令行再试。


4、openclaw gateway status没显示 running

可以优先尝试重新初始化:

openclaw onboard

如果你想省事一点,也可以直接再执行一次:

ollama launch openclaw

5、后台打不开

优先排查这几个点:

  • OpenClaw 网关是否正常运行
  • 本地防火墙是否拦截端口
  • 地址是否输对
  • 是否完成首次认证
  • Base URL 有没有误填成/v1

最后这一点真的特别常见。


十五、总结:这套方案值不值得折腾?

我的结论是:

值得,但要有合理预期。

如果你只是想:

  • 本地跑一个模型
  • 不想用 API Key
  • 想自己折腾 Agent
  • 想做一套个人 AI 工作台

那这套方案非常适合你。

但如果你更在意:

  • 响应速度
  • 稳定性
  • 工具调用效果
  • 开箱即用体验

那很多情况下,直接用云模型反而更省心。

所以最现实的建议是:

本地部署适合学习、实验和折腾;云模型更适合稳定生产使用。


附:命令汇总

# 运行本地模型ollama run deepseek-r1:8b# 查看 Node.js 和 npm 版本node--versionnpm--version# 推荐方式:一键启动 OpenClawollama launch openclaw# 手动安装 OpenClawnpminstall-gopenclaw@latest# 手动初始化openclaw onboard# 查看 OpenClaw 网关状态openclaw gateway status# 打开 OpenClaw 后台openclaw dashboard

附:一句话记住初始化填写逻辑

Provider 选 Ollama Custom base URL 填 http://127.0.0.1:11434 Custom model ID 填 deepseek-r1:8b API Key 本地一般直接跳过
http://www.jsqmd.com/news/478882/

相关文章:

  • OpenClaw + 飞书 Agent 全面体检与调试指南:从故障排查到安全加固
  • 2026毕业季降AI避坑指南:这些工具千万别碰 - 还在做实验的师兄
  • jsch 升级 0.2.x 版本对 bcprov-jdk 的依赖分析
  • 假如有10条平行的轴线,怎样判断其中有4条是共面的
  • MongoDB知识点
  • 金融AI营销如何选型?原圈科技揭秘4大标准避坑指南
  • 2026年AI搜索生态爆发,用触有数据抢占六大平台可见率!
  • LangChain到底是啥?用大白话讲清楚
  • 将线程和锁构建图(后续通过检测环路以检测死锁)
  • 学长亲荐 9个降AI率软件降AIGC网站:本科生降AI率全测评与推荐
  • 2026年呼和浩特靠谱瓷砖大揭秘!哪种款式数量多你知道吗?
  • 哇塞!深圳市访客云产品1秒完成人证合一验证,你还不心动?
  • 拒绝纸上谈兵!破碎机振动治理,实测有效的定制化方案
  • 某端游外挂网络验证的分析与破解思路
  • 使用实时云渲染LarkXR顺利搭建云VR方案
  • Matlab中的一维无限能量艾里光束与一维有限能量艾里光束
  • 农经权二轮延包—带确认签字表的公示图
  • 方盾在口,安全在手:煤矿半面罩的职业健康使命
  • 轮毂电机分布式驱动车辆状态估计:EKF 与 UKF 的探索
  • 【Makefile 专家之路 | 基础篇】01. 万物起源:编译链接原理与 Makefile 的核心价值
  • Qt窗口模态设置
  • 别再拿AI生成“废片”了!Claude突发免费杀手锏,用动态白板降维打击传统图文交互
  • 讯维 AI 分布式可视化系统支持哪些 AI 智能应用,实际应用价值如何?
  • 老司机教你玩转智能避撞:从五次多项式到模型预测控制的那些事儿
  • 2026-03-14
  • YOLOv10全网首发:AAAI2026 | 融合PartialNet Block的C3k2-YOLO高效目标检测网络 | 轻量化涨点设计
  • 2026年好用的北京GEO优化公司排名出炉,哪家会是你的心头好?
  • 联合省选 2026
  • sdut-程序设计基础Ⅰ-实验四for循环(11-22)
  • 使用Conda和pip创建Python环境