当前位置: 首页 > news >正文

Ollama 本地部署AI+运行模型的标准化流程,新手也能一步到位

核心前提

  • 系统支持:Windows 10+/macOS 12+/Linux(Ubuntu 20.04+)
  • 无需提前装 Python/CUDA(Ollama 自动封装依赖)

一、步骤 1:安装 Ollama(全系统通用)

1. 下载安装包
  • 官网(推荐):https://ollama.com/
    • macOS:下载 DMG 文件,双击拖入 Applications 安装
    • Windows:下载 EXE 文件,双击运行(勾选“Add to PATH”)
    • Linux:终端一键安装
      curl-fsSLhttps://ollama.com/install.sh|sh
2. 验证安装成功

打开终端/命令提示符,执行:

ollama-v

输出类似ollama version 0.1.50即安装成功(版本号以实际为准)。


二、步骤 2:部署模型(核心操作)

Ollama 部署模型只有1 条核心命令,格式:ollama run 模型名称(自动下载+运行,无需手动解压/配置)。

1. 常用模型一键部署(按需选)
模型类型命令(复制即用)硬件要求
超轻量(中文)ollama run qwen:0.5b1GB 内存
轻量(工具调用)ollama run llama3.2:3b4GB 内存/显存
平衡型ollama run gemma:2b2GB 内存
小钢炮ollama run phi34GB 内存/显存
2. 部署过程说明
  • 执行命令后,Ollama 会自动:
    1. 下载模型量化包(进度条显示,国内可能慢,耐心等)
    2. 解压并加载模型到本地
    3. 启动模型对话界面
  • 首次下载:Qwen 0.5B 约 400MB,Llama 3.2-3B 约 2GB,时间取决于网速。

三、步骤 3:运行模型(对话/测试)

1. 基础对话(直接交互)

部署完成后自动进入对话界面,输入任意指令即可测试:

>>> 你好,介绍下自己 >>> 帮我写一个整理桌面文件的步骤
  • 退出对话:按Ctrl + D(Windows/macOS/Linux 通用)。
2. 后台运行(供 OpenClaw 调用)

如果要给 OpenClaw 用,无需停留在对话界面,执行:

# 启动 Ollama 后台服务(默认端口 11434)ollama serve
  • 保持终端窗口打开,模型会在后台持续运行,OpenClaw 可通过http://localhost:11434调用。
3. 常用运维命令(管理模型)
功能命令说明
查看已部署模型ollama list显示本地所有模型
停止模型ollama stop 模型名ollama stop qwen:0.5b
删除模型ollama rm 模型名释放磁盘空间
重启 Ollamaollama restart解决模型加载异常

四、步骤 4:验证模型可被调用(关键!)

确保模型能被 OpenClaw/其他工具调用,执行:

# 用 curl 测试模型响应(替换 qwen:0.5b 为你的模型名)curlhttp://localhost:11434/api/generate-d'{ "model": "qwen:0.5b", "prompt": "你好", "stream": false }'
  • 输出包含"response":"你好!..."即调用成功。

五、适配 OpenClaw 的关键配置

  1. 确保 Ollama 后台服务在运行(ollama serve
  2. 修改 OpenClaw 的.env文件:
    OLLAMA_BASE_URL=http://localhost:11434 OLLAMA_MODEL=qwen:0.5b # 替换为你部署的模型名
  3. 重启 OpenClaw 即可联动。

六、常见问题解决

  1. 下载慢:切换国内镜像(临时生效)
    # macOS/LinuxexportOLLAMA_MIRROR=https://mirror.ollama.com ollama run qwen:0.5b# Windows(命令提示符)setOLLAMA_MIRROR=https://mirror.ollama.com ollama run qwen:0.5b
  2. 端口被占用:修改 Ollama 端口
    # 比如改用 11435 端口ollama serve--host0.0.0.0:11435# 同时修改 OpenClaw 的 OLLAMA_BASE_URL=http://localhost:11435
  3. Windows 启动失败:以管理员身份运行终端,执行ollama serve查看具体报错。

总结

  1. Ollama 部署模型核心:ollama run 模型名(自动下载+运行)
  2. 供 OpenClaw 调用需启动后台服务:ollama serve
  3. 验证可用性:用 curl 测试 11434 端口的 API 响应
  4. 低配电脑优先选qwen:0.5b,4GB 内存选llama3.2:3b
http://www.jsqmd.com/news/461563/

相关文章:

  • 2026 年中国 GEO 优化服务商哪家好?权威测评与战略选型指南
  • 2026年靠谱的N折棉柔巾设备品牌推荐:V折棉柔巾设备/高速棉柔巾设备高评价厂家推荐 - 品牌宣传支持者
  • 严肃面试官 vs 搞笑“水货”谢飞机:Java 大厂三轮面试实录(含超详细答案)
  • 漏洞扫描工具AppScan新版本AppScan 10.8.0 新增功能
  • 什么是linux驱动
  • 2026年口碑好的宴席餐具品牌推荐:快餐餐具/玉瓷餐具/山野风餐具厂家实力参考 - 品牌宣传支持者
  • 一文搞懂spring ioc底层原理
  • 睿远研究院丨IO-Link规范解读(十八):DS流程详解
  • 风机与双馈风机模型解析:工作原理、特点及应用场景探讨
  • linux 安装 FFmpeg 和windows安装 FFmpeg
  • 2026宜宾装修公司权威推荐榜 - 优质品牌商家
  • C语言形参与实参区别详解
  • 架构之道:平衡企业复杂性的艺术 ——从架构能力到组织持续成长
  • 麒麟信安获众多客户感谢信!金杯银杯,不如用户口碑
  • 2026年口碑好的电磁微型阀工厂推荐:节流微型阀/无人机微型阀厂家推荐哪家好 - 品牌宣传支持者
  • VOC新规下汽车内饰应对指南:福尔蒂低气味除醛母粒适配广汽埃安Q4项目
  • 2026年口碑好的薄膜温室大棚厂家推荐:玻璃温室大棚/文洛式温室大棚/阳光板温室大棚优质厂商精选推荐(口碑) - 品牌宣传支持者
  • CLion打开Cmake的Qt项目
  • C++基础入门
  • 2026年口碑好的新型玻璃温室品牌推荐:玻璃温室大棚/无土栽培玻璃温室厂家信誉综合参考 - 品牌宣传支持者
  • 南平代理记账,亲测这家靠谱
  • python环境安装报错目标卷 C: 执行的部署 Add 操作失败,错误为 0x8007007E。
  • 2026楼梯护栏行业优质品牌推荐榜:别墅定制楼梯/市政工程护栏/广东楼梯出口厂家/户外消防工程楼梯/选择指南 - 优质品牌商家
  • OpenClaw远程访问控制台报错
  • 2026 最新遥感科研范式:GeoAI 可解释建模 + 顶刊论文产出一站式掌握
  • 2026年虚拟现实研究与应用国际研讨会 (VRRA 2026)
  • 2026TikTok必备的选品方法和技巧,爆款产品打造三步骤! - 跨境小媛
  • KMP算法:最长公共前后缀——初始化,左右指针偏移,套娃回溯。
  • 谷歌编程之夏 2026:时序数据库 Apache IoTDB 项目征集正式开启!
  • Flutter 组件 firebase_core_dart 适配鸿蒙 HarmonyOS 实战:高性能云端基础架构治理,构建 Firebase 资产与全场景云同步一致性治理架构