当前位置: 首页 > news >正文

# 养小龙虾进阶教程

养小龙虾进阶教程

引言

“养小龙虾”——搭建 AI 助手,是时下很火的一个话题。然而网上部署教程或依赖昂贵的云服务,或忽略本机的安全性,配置过程更是人云亦云,让人踩坑不断。笔者历经多次失败,最终总结出一套“容器化、零费用、高安全性”的部署方案。本文带你从零开始,在 Windows 11 平台上通过 ollama 和 openclaw 容器搭建一个接入飞书的 AI 助手。

本文核心亮点

  • 容器化部署:运行在 Docker 容器上,隔离性好,设置简单,迁移方便;
  • 本地大模型:使用 Ollama 运行开源模型,隐私无忧;
  • 费用仅电费:无需云服务,防止一不小心被运营商掏空口袋。

一、安装 WSL + Docker Desktop 软件

这部分网上有不少教程,不再赘述。

  • 安装 WSL:如何使用 WSL 在 Windows 上安装 Linux
  • 安装 Docker Desktop:Install Docker Desktop on Windows

如果搞不定,你可以联系我帮你装,服务费一杯奶茶钱,发送邮件。

二、构建 ollama + openclaw 容器

1. 准备工作

在任意位置(推荐非中文目录)打开终端,执行:

mkdir ai\.ollama ai\workspace && notepad ai\docker-compose.yml

在弹出的窗口中选择“是”,然后将下面的内容粘贴到打开的记事本中:

services:ollama:image:ollama/ollama:latestcontainer_name:ollamarestart:unless-stoppedports:-"127.0.0.1:11434:11434"volumes:-./.ollama:/root/.ollamadeploy:resources:reservations:devices:-driver:nvidiacount:allcapabilities:[gpu]openclaw:depends_on:-ollamaimage:ghcr.io/openclaw/openclaw:latestcontainer_name:openclawrestart:unless-stoppedports:-"127.0.0.1:22:22"environment:-TZ=Asia/Shanghai-NODE_ENV=productionvolumes:-./workspace:/app/workspace

保存,此时目录结构应为:

ai |--.ollama |--workspace |--docker-compose.yml

⚠️ 此处我们没像网上绝大多数教程一样映射 18789 端口,而是映射 22 端口。

为什么?
许多教程都将容器的 18789 端口映射到宿主机,但实际从宿主机访问 http://127.0.0.1:18789 时会遇到 ERR_EMPTY_RESPONSE 错误。这是因为 OpenClaw 的网关服务默认监听容器的 loopback 地址,从宿主机上访问不到容器的网关服务。正确的做法是通过 SSH 隧道转发,既安全又稳定。

2. 构建容器

在刚才打开的终端中执行:

cd ai && docker-compose up-d

等待任务完成,这样我们的容器就构建好了!

三、进行必要配置

1. 配置认证服务

如果你不需要访问 OpenClaw 的控制台网页,可以跳过此步。

生成 SSH 密钥对:

ssh-keygen-t ed25519-C"username@domain"
  • username@domain 改成你的邮箱地址
  • 按提示设置密码(可留空)

将公钥复制到工作区:

copy%USERPROFILE%\.ssh\id_ed25519.pub.\workspace

以 root 用户身份进入 openclaw 容器:

docker exec-u root-it openclaw/bin/bash

安装 SSH 服务并进行设置:

aptupdate&&aptinstallopenssh-servernano-y&&nano/etc/ssh/sshd_config
  • 找到 #Port 22,去掉 # 使其生效
  • 找到 #ListenAddress 0.0.0.0,同样去掉 # 使其生效

配置权限和证书:

su-nodemkdir-p~/.ssh&&chmod700~/.ssh&&cp/app/workspace/id_ed25519.pub ~/.ssh/authorized_keys&&chmod600~/.ssh/authorized_keys

2. 下载开源模型

为了让第一次响应更快,我们提前拉取模型(这里笔者使用 qwen3.5:4b 模型,你应根据自己的硬件情况选择适配模型):

docker exec-it ollama ollama pull qwen3.5:4b

等待完成……

3. 接入飞书平台

由于 OpenClaw 支持通过配置文件来初始化,因此我们可以将一份预配置的 openclaw.json 放入 workspace 文件夹,然后执行 onbard 命令,完成设置。

ai\workspace\openclaw.json

{"auth":{"profiles":{"ollama:default":{"provider":"ollama","mode":"api_key"}}},"models":{"mode":"merge","providers":{"ollama":{"baseUrl":"http://ollama:11434","apiKey":"OLLAMA_API_KEY","api":"ollama","models":[{"id":"qwen3.5:4b","name":"qwen3.5:4b","reasoning":false,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":131072,"maxTokens":8192}]}}},"agents":{"defaults":{"model":{"primary":"ollama/qwen3.5:4b"},"models":{"ollama/qwen3.5:4b":{}},"workspace":"/app/workspace"}},"tools":{"profile":"coding"},"commands":{"native":"auto","nativeSkills":"auto","restart":true,"ownerDisplay":"raw"},"session":{"dmScope":"per-channel-peer"},"channels":{"feishu":{"enabled":true,"appId":"Your feishu appId","appSecret":"Your feishu appSecret","connectionMode":"websocket","domain":"feishu","groupPolicy":"open"}},"gateway":{"port":18789,"mode":"local","bind":"loopback","auth":{"mode":"token","token":"Your gateway token"},"tailscale":{"mode":"off","resetOnExit":false}},"skills":{"install":{"nodeManager":"npm"}},"plugins":{"entries":{"feishu":{"enabled":true}},"installs":{"feishu":{"source":"npm","spec":"@openclaw/feishu","installPath":"/home/node/.openclaw/extensions/feishu","version":"2026.3.13","resolvedName":"@openclaw/feishu","resolvedVersion":"2026.3.13","resolvedSpec":"@openclaw/feishu@2026.3.13","integrity":"sha512-D5vPkgGZ9lfCQnDFlGrQN6NCSUYRgYW9k7amW3qlm9zBI4Sp+alRZVqLZ4yZ2eCXHjw9RVp/L75wjJ7NBQyfEw==","shasum":"39128ff918f8d3387331818cbe3f8b24a82e4c0d","resolvedAt":"2026-03-15T21:34:22.054Z","installedAt":"2026-03-15T21:34:54.298Z"}}}}

注意:

  1. 要让 openclaw 容器访问 ollama 容器,不能使用 http://127.0.0.1:11434 地址,而应该用 http://ollama:11434 地址;
  2. 替换其中的 your feishu appId、your feishu appSecret 和 your gateway token 三项内容;
  3. 如果模型运行报错,可以尝试将上下文长度contextWindow设置调小;
  4. 编辑完成后注意传到容器中,docker exec openclaw cp /app/workspace/openclaw.json /home/node/.openclaw/

现在,向你的飞书机器人发送任意消息,它会回复一个配对码,然后在主机中批准该设备:

docker exec openclaw openclaw pairing approve feishu CODE

大功告成!!现在,你可以通过飞书机器人与 AI 助手对话了。


四、一些常用命令

# 在宿主机中访问 openclaw 控制台docker exec-u root openclaw service sshstart&& ssh-i%USERPROFILE%\.ssh\id_ed25519-N-L 18789:127.0.0.1:18789 node@localhost
http://www.jsqmd.com/news/498676/

相关文章:

  • 晶晨S905W2芯片_sbx_x98_plus_broagcon_atv_安卓11_线刷包固件包
  • 华为FusionCharge 720kW液冷直流快充桩主电流全路径深度详解
  • RustDesk自建服务器全攻略:从Docker部署到客户端配置(避坑指南)
  • 可见磁粉探伤与荧光磁粉探伤:您应该使用哪种磁粉探伤方法?
  • 从0到1打造AI Agent:6周速成实战,秒杀90%理论文章!
  • Qwen3-0.6B-FP8入门必看:FP8量化大模型Web界面零基础使用手册
  • 最近的开源大模型架构梳理:Kimi2.5、Setp 3.5 Flash、Qwen3.5、GLM-5、Minimax M2.5
  • 【开题答辩全过程】以 互助式失物招领微信小程序为例,包含答辩的问题和答案
  • 基于Qwen3-ForcedAligner-0.6B的计算机网络课程字幕生成系统
  • 前端开发攻略---vue3长列表性能优化终极指南:虚拟滚动、分页加载、时间分片等6种方案详解与代码实现
  • Stable Yogi Leather-Dress-Collection算法解析:从Token到皮革纹理的生成原理
  • LiteLLM 防滥用策略配置指南
  • 开源大模型轻部署:nanobot镜像体积仅2.3GB,适合低带宽环境下载
  • 车载C语言安全合规进入“熔断期”:2026年Q1起新车型申报将拒收未覆盖Annex G.5.2.3的静态分析报告
  • 黄仁勋在GTC宣判了训练时代的死亡
  • 2025年最新C语言开发环境搭建:VS Code + MinGW-w64保姆级教程(附常见问题解决)
  • Qwen-Image-Edit应用案例:电商商品图智能编辑,效率提升10倍
  • Qwen1.5-1.8B GPTQ助力MySQL数据库智能运维与查询优化
  • 妇科液基细胞学之——非典型腺细胞
  • 春联生成模型-中文-base应用解析:从家庭到企业的多场景落地
  • 前端开发中的常用工具函数(五)
  • 高并发场景下REST API悄悄吃掉你38% CPU?MCP协议零拷贝+二进制帧设计深度解析,今天必须改
  • CosyVoice企业级应用案例:智能外呼与语音通知系统搭建
  • SeqGPT-560M实操手册:批量处理10万+文本的Shell脚本与错误重试机制
  • MogFace人脸检测惊艳效果:同一张图中精准识别12张不同角度人脸(含3张侧脸)
  • 使用Typora管理AnythingtoRealCharacters2511技术文档
  • 卡证检测矫正模型跨域迁移:从身份证主训到护照小样本适配方法
  • P4512 【模板】多项式除法
  • 微信客服智能回复集成小程序的架构设计与实现
  • 趣味数学:董小姐和吾先生。