当前位置: 首页 > news >正文

ClawdBot一键部署:docker-compose.yml内置proxy/SSL/healthcheck全配置

ClawdBot一键部署:docker-compose.yml内置proxy/SSL/healthcheck全配置

1. 项目介绍:你的个人AI助手

ClawdBot是一个可以在自己设备上运行的个人AI助手,它使用vLLM提供后端模型能力,让你能够快速搭建一个功能强大的AI对话系统。这个项目最大的特点就是简单易用,通过Docker Compose一键部署,内置了代理设置、SSL证书管理和健康检查等完整配置。

想象一下,你只需要几条命令,就能在自己的服务器上拥有一个类似ChatGPT的AI助手,而且完全由你自己掌控数据,不需要担心隐私问题。ClawdBot就是这样一个开箱即用的解决方案。

2. 环境准备与快速部署

2.1 系统要求

在开始之前,确保你的系统满足以下基本要求:

  • Docker和Docker Compose已安装
  • 至少4GB可用内存
  • 10GB可用磁盘空间
  • Linux/macOS/Windows WSL2系统

2.2 一键部署步骤

部署ClawdBot非常简单,只需要几个步骤:

首先创建项目目录并进入:

mkdir clawdbot && cd clawdbot

创建docker-compose.yml文件:

version: '3.8' services: clawdbot: image: moltbot/moltbot:latest container_name: clawdbot restart: unless-stopped ports: - "7860:7860" - "8000:8000" volumes: - ./data:/app/workspace - ./config:/app/config environment: - TZ=Asia/Shanghai - PROXY_URL=http://proxy:7890 healthcheck: test: ["CMD", "curl", "-f", "http://localhost:7860/health"] interval: 30s timeout: 10s retries: 3 networks: - clawdbot-network # 可选:如果需要代理服务 proxy: image: socks5-proxy:latest container_name: clawdbot-proxy restart: unless-stopped networks: - clawdbot-network networks: clawdbot-network: driver: bridge volumes: data: config:

启动服务:

docker-compose up -d

等待几分钟后,服务就会启动完成。你可以通过以下命令查看服务状态:

docker-compose logs -f

3. 配置详解与功能使用

3.1 初始设置与访问

服务启动后,你需要进行一些初始配置才能正常访问Web界面。

首先检查设备请求状态:

docker exec -it clawdbot clawdbot devices list

你会看到类似这样的输出,其中可能有pending状态的请求:

🦞 Clawdbot 2026.1.24-3 — Found 2 device requests ID Status Created At req_abc123 pending 2024-01-15 10:30:25 req_def456 approved 2024-01-14 09:15:30

批准pending的请求:

docker exec -it clawdbot clawdbot devices approve req_abc123

现在你应该能够通过浏览器访问 http://你的服务器IP:7860 来打开ClawdBot的Web界面了。

如果还是无法访问,可以获取带token的访问链接:

docker exec -it clawdbot clawdbot dashboard

这个命令会输出一个包含token的特殊链接,用这个链接就能确保安全访问。

3.2 模型配置与管理

ClawdBot默认使用vLLM后端,但你可以轻松配置使用其他模型。

方法一:通过配置文件修改(推荐)

主要的配置文件在/app/clawdbot.json,在容器内对应的是/app/clawdbot.json。你可以修改这个文件来配置自定义模型:

{ "agents": { "defaults": { "model": { "primary": "vllm/Qwen3-4B-Instruct-2507" }, "workspace": "/app/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "models": { "mode": "merge", "providers": { "vllm": { "baseUrl": "http://localhost:8000/v1", "apiKey": "sk-local", "api": "openai-responses", "models": [ { "id": "Qwen3-4B-Instruct-2507", "name": "Qwen3-4B-Instruct-2507" } ] } } } }

方法二:通过Web界面修改

你也可以在Web界面中修改模型配置:

  1. 打开ClawdBot Web界面
  2. 点击左侧的"Config"菜单
  3. 选择"Models" -> "Providers"
  4. 在这里添加或修改模型配置

验证模型配置是否成功:

docker exec -it clawdbot clawdbot models list

如果看到类似下面的输出,说明配置成功了:

Model Input Ctx Local Auth Tags vllm/Qwen3-4B-Instruct-2507 text 195k yes yes default

4. 高级功能与网络配置

4.1 代理网络配置

在某些网络环境下,你可能需要配置代理才能正常访问外部服务。ClawdBot支持通过环境变量配置代理:

在docker-compose.yml中添加代理配置:

environment: - HTTP_PROXY=http://proxy:7890 - HTTPS_PROXY=http://proxy:7890 - NO_PROXY=localhost,127.0.0.1

4.2 SSL证书配置

如果你希望通过HTTPS访问ClawdBot,可以配置SSL证书:

首先,将你的SSL证书文件(.crt和.key)放到config目录下,然后修改docker-compose.yml:

volumes: - ./ssl:/app/ssl:ro - ./data:/app/workspace - ./config:/app/config environment: - SSL_CERT_FILE=/app/ssl/your_domain.crt - SSL_KEY_FILE=/app/ssl/your_domain.key - SSL_ENABLED=true

4.3 健康检查与监控

ClawdBot内置了健康检查功能,你可以通过以下方式监控服务状态:

手动检查服务健康状态:

curl http://localhost:7860/health

配置Prometheus监控(可选):

environment: - METRICS_ENABLED=true - METRICS_PORT=9090

5. 实际使用体验

ClawdBot提供了一个直观的Web界面,让你能够轻松与AI助手交互。界面主要分为几个区域:

  • 对话区域:中间的主要区域,显示你和AI的对话历史
  • 输入框:底部输入你的问题或指令
  • 侧边栏:包含设置、模型配置、历史会话等功能

使用起来非常简单:在输入框中输入你的问题,按回车发送,AI助手就会生成回复。你可以进行多轮对话,AI会记住上下文。

对于开发者来说,ClawdBot还提供了API接口,可以集成到自己的应用中:

curl -X POST http://localhost:7860/api/chat \ -H "Content-Type: application/json" \ -d '{ "message": "你好,请介绍一下你自己", "model": "vllm/Qwen3-4B-Instruct-2507" }'

6. 总结与建议

ClawdBot是一个功能强大且易于部署的个人AI助手解决方案。通过Docker Compose一键部署,内置了完整的代理、SSL和健康检查配置,让你能够快速搭建属于自己的AI对话系统。

主要优势

  • 简单易用:几条命令就能完成部署
  • 功能完整:支持多种模型和配置选项
  • 隐私安全:数据完全由自己掌控
  • 扩展性强:支持API集成和自定义开发

使用建议

  1. 首次部署时,先使用默认配置确保基本功能正常
  2. 根据你的硬件配置调整并发数等参数
  3. 定期更新镜像版本以获取最新功能和安全更新
  4. 重要数据记得定期备份

无论你是想搭建一个个人AI助手,还是为团队提供AI能力支持,ClawdBot都是一个值得尝试的优秀解决方案。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

http://www.jsqmd.com/news/490887/

相关文章:

  • GLM-Image一键启动脚本详解:--port/--share参数配置与远程访问实操
  • Neeshck-Z-lmage_LYX_v2实操手册:错误堆栈定位——模型加载失败排查全流程
  • 2026年Java面试总结(持续更新)
  • translategemma-4b-it惊艳案例:Ollama本地运行含艺术字体海报图翻译效果
  • 打造 AI 冒险团:HagiCode 多 Agent 协作配置实战
  • MongoDB(44)什么是引用?
  • Stable Yogi Leather-Dress-Collection显存优化教程:enable_model_cpu_offload实测
  • LongCat-Image-Editn多场景应用:电商换装、海报文案插入、教育图解修改
  • Nunchaku-flux-1-devLogo设计:品牌关键词生成矢量感草图
  • Git-RSCLIP多场景支持效果展示:水域识别、机场定位、林地覆盖分析
  • SiameseAOE中文-base快速部署:NVIDIA T4显卡下1.2s完成整句ABSA推理
  • Qwen3-4B Instruct-2507部署教程:镜像免配置+HTTP一键访问全流程
  • 2026年3月北京心理咨询师实习/督导/实战/培训机构哪家好 - 2026年企业推荐榜
  • DAMOYOLO-S部署教程:无需下载权重,内置模型路径直启方案
  • Lingyuxiu MXJ LoRA GPU友好型教程:24G显存下多版本LoRA并行测试
  • 上海黄埔区老房翻新装修专业的公司有哪些
  • 操作系统与虚拟化安全重点 3.5.可信路径机制
  • all-MiniLM-L6-v2入门必看:3步完成Ollama环境部署与调用
  • Nanbeige4.1-3B Chainlit前端调试教程:Chrome DevTools抓包分析请求响应流程
  • translategemma-4b-it简单调用:curl命令直连Ollama API完成图文翻译示例
  • 基于低频FDTR的热界面材料导热性能与缺陷探测研究
  • [特殊字符] mPLUG-Owl3-2B多模态工具实战:OCR增强型图文问答——识别图中文字并推理
  • SOONet高清效果展示:冰箱取食/厨房操作等真实场景时间戳精准匹配
  • CogVideoX-2b动态表现:镜头运动与物体交互真实感评测
  • UDOP-large实战案例:外贸公司英文提单自动识别与字段校验流程
  • EVA-01开源大模型教程:Qwen2.5-VL-7B视觉编码器与语言解码器协同机制解析
  • CasRel镜像部署实操手册:Docker+modelscope环境下稳定运行全流程
  • 打开网站显示Parse error: syntax error, unexpected = (T_EQUAL) 错误怎么办|已解决
  • 盘点2026年上海出口企业单证备案软件管理企业,哪家比较靠谱 - 工业设备
  • 3D Face HRN入门教程:理解UV纹理映射原理与3D Face HRN输出结构