AI 模型本地一键部署 超详细步骤(Ollama 通用版,Windows/Mac 都能用)
一、准备工作
- 电脑内存至少 16G,有 N 卡独显更好(没有也能 CPU 跑)
- 关闭多余后台,预留磁盘空间10G 以上
二、第一步:下载安装 Ollama
- 官网:https://ollama.com
- 直接点下载,对应自己系统:
- Windows 版 / Mac 版 / Linux 版
- 双击安装,默认下一步安装即可,无需改路径
三、第二步:打开命令终端
- Windows:按
Win+R输入cmd回车 - Mac:打开「终端」
四、第三步:一键拉取并运行模型(核心命令)
复制任意一条粘贴回车,自动下载、自动部署、直接可用:
常用推荐模型(直接复制用)
- 通义千问 7B(全能好用)
bash
运行
ollama run qwen:7b- Llama3 8B(海外最强开源)
bash
运行
ollama run llama3:8b- 智谱 GLM 中文适配强
bash
运行
ollama run glm3- 极简轻量,低配电脑专用
bash
运行
ollama run qwen:3b执行过程
- 第一次运行自动下载模型权重,等待进度走完
- 下载完自动进入对话界面,直接打字就能聊天
- 全程离线本地运行,不上云、不泄露数据
五、常用基础命令(必记)
- 退出对话:输入
/bye - 查看已装模型:
ollama list - 卸载模型:
ollama rm 模型名 - 后台启动服务,不开终端也能用:直接后台挂着就行
六、进阶:配可视化 UI(网页版界面)
不想用黑框命令行,装个网页可视化面板,鼠标点着用:推荐Open WebUI,一条命令一键部署:
bash
运行
ollama run open-webui装好后浏览器打开本地地址,就能像 ChatGPT 一样网页聊天、切换模型、建知识库。
七、补充说明
- 模型只下载一次,下次直接命令启动,不用重复下载
- 低配电脑选3B,中端7B,高配14B
- 全程纯本地,无网络也能使用,文档、文案、编程都能离线用
