当前位置: 首页 > news >正文

一份 Windows/macOS/Linux 完整安装 + 运行 + 对接 WebUI 的步骤

下面是一份Windows /macOS/ Linux 三平台通用的完整步骤:安装 Ollama → 运行模型 → 对接 Open WebUI,按顺序操作即可。

一、安装 Ollama(三平台)

1. Windows 安装

  1. 下载安装包:
    • 官网:https://ollama.com/download
    • 直接下载:https://ollama.com/download/OllamaSetup.exe
  2. 双击OllamaSetup.exe→ 点Install,自动完成安装。
  3. 验证安装:
    • 打开PowerShellCMD,输入:

      bash

      运行

      ollama --version
    • 显示版本号(如0.3.14)即成功。

2. macOS 安装

  1. 下载安装包:
    • 官网:https://ollama.com/download
    • 直接下载:https://ollama.com/download/Ollama-darwin.zip
  2. 解压 → 把Ollama.app拖到应用程序文件夹。
  3. 验证安装:
    • 打开终端,输入:

      bash

      运行

      ollama --version
    • 显示版本号即成功。

3. Linux 安装(Ubuntu/Debian/CentOS 等)

  1. 打开终端,执行一键安装脚本:

    bash

    运行

    curl -fsSL https://ollama.com/install.sh | sh
  2. 验证安装:

    bash

    运行

    ollama --version

二、运行 Ollama 与下载模型

1. 启动 Ollama 服务

  • Windows/macOS:安装后会自动后台运行(托盘有图标)。
  • Linux:手动启动(可选):

    bash

    运行

    ollama serve

2. 下载并运行模型(命令行)

bash

运行

# 下载并启动 Llama 3(7B 轻量版,推荐新手) ollama run llama3 # 或下载 Qwen 2.5(7B 中文友好) ollama run qwen2.5:7b-instruct # 或下载 DeepSeek R1(7B 推理强) ollama run deepseek-r1:7b
  • 首次运行会自动下载模型(约 4–8GB),耐心等待。
  • 下载完成后直接进入聊天界面,输入问题即可对话。

3. 常用管理命令

bash

运行

# 查看已下载模型 ollama list # 停止运行中的模型 ollama stop llama3 # 删除模型 ollama rm llama3

三、对接 Open WebUI(可视化界面)

1. 安装 Docker(必须)

Open WebUI 推荐用 Docker 部署,先装 Docker:

  • Windows/macOS:下载安装Docker Desktop:https://www.docker.com/products/docker-desktop/
  • Linux:按官方文档安装 Docker Engine:https://docs.docker.com/engine/install/

验证 Docker 安装成功:

bash

运行

docker -v

2. 启动 Open WebUI 容器

方式 A:仅用 WebUI(Ollama 已在本机)

bash

运行

docker run -d \ -p 3000:8080 \ -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main
方式 B:WebUI + Ollama 一体(推荐新手)

bash

运行

# 有 NVIDIA GPU docker run -d \ -p 3000:8080 \ --gpus=all \ -v ollama:/root/.ollama \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:ollama # 仅 CPU docker run -d \ -p 3000:8080 \ -v ollama:/root/.ollama \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:ollama ```{insert\_element\_0\_} ### 3. 访问 WebUI 并连接 Ollama 1. 打开浏览器访问:**http://localhost:3000** 2. 首次使用:**注册管理员账号**(仅本地存储,不上云)。 3. 连接 Ollama: - 进入 **设置 → 连接 → Ollama**。 - 地址:`http://localhost:11434`(默认)→ 点击 **验证连接**。 - 显示“连接成功”即可。 4. 开始使用: - 顶部选择模型(如 `llama3`、`qwen2.5:7b-instruct`)。 - 输入问题,像 ChatGPT 一样对话。 --- ## 四、常见问题与优化 ### 1. 模型下载慢(国内) - 可设置代理,或用国内镜像源(搜索“Ollama 模型镜像”)。 ### 2. 模型存储在 C 盘(占空间) - Windows:设置环境变量 `OLLAMA_MODELS`,指向其他盘(如 `D:\ollama_models`)。 - macOS/Linux: ```bash export OLLAMA_MODELS=/path/to/your/models

3. 速度慢(CPU 运行)

  • 优先用7B 量化模型(如llama3:8bqwen2.5:7b)。
  • 有 NVIDIA GPU 可开启 CUDA 加速(Ollama 自动识别)。

五、总结

  1. 安装 Ollama → 验证ollama --version
  2. 运行ollama run llama3下载并启动模型。
  3. 用 Docker 启动 Open WebUI → 访问http://localhost:3000
  4. 连接 Ollama → 开始可视化对话。

下面整理了按场景分类的 Ollama 常用模型清单,每个模型都标注了特点、适用场景和直接可用的ollama run命令,新手优先选 7B 量级(轻量、易运行):


一、中文友好型(优先选,适配中文对话 / 创作)

表格

模型名称特点适用场景Ollama 运行命令
通义千问 2.5(7B)阿里出品,中文理解顶尖,7B 轻量日常聊天、中文创作、问答ollama run qwen2.5:7b-instruct
通义千问 2.5(14B)中文能力更强,推理略优复杂中文问答、长文本总结ollama run qwen2.5:14b-instruct
讯飞星火 V4(7B)讯飞出品,中文语音 / 文本兼顾中文对话、本地化场景ollama run spark:7b
Baichuan 3(7B)百川大模型,中文闲聊 / 写作优秀中文创作、生活化问答ollama run baichuan3:7b

二、代码编程型(写代码 / 调试 / 解释)

表格

模型名称特点适用场景Ollama 运行命令
CodeLlama(7B)Meta 官方代码模型,支持多语言基础代码编写、语法解释ollama run codellama:7b-code
DeepSeek-Coder(7B)深度求索,代码能力顶尖,支持中文注释复杂代码编写、调试、重构ollama run deepseek-coder:7b-instruct
CodeQwen(7B)千问代码版,中文代码场景适配好中文注释代码、国内框架开发ollama run codeqwen:7b-instruct
StarCoder2(7B)HuggingFace 出品,开源代码模型开源项目开发、代码补全ollama run starcoder2:7b

三、逻辑推理型(数学 / 分析 / 复杂思考)

表格

模型名称特点适用场景Ollama 运行命令
Llama 3(8B)Meta 旗舰模型,综合推理能力强通用推理、逻辑分析、决策ollama run llama3:8b-instruct
DeepSeek-R1(7B)深度求索推理版,数学 / 逻辑顶尖数学计算、逻辑题、数据分析ollama run deepseek-r1:7b
Mistral(7B)轻量高效,推理速度快快速逻辑判断、简单分析ollama run mistral:7b-instruct-v0.2
Phi-3(3.8B)Microsoft 出品,小模型推理天花板轻量化推理、低配置设备ollama run phi3:3.8b-instruct

四、轻量化通用型(低配置设备 / 快速响应)

表格

模型名称特点适用场景Ollama 运行命令
Qwen2.5(1.8B)千问轻量版,仅 1.8B,速度极快低配电脑 / 笔记本、快速问答ollama run qwen2.5:1.8b-instruct
Gemma(2B)Google 出品,小模型通用能力强轻量化日常使用、离线运行ollama run gemma:2b-instruct

新手使用建议

  1. 首次尝试:优先选ollama run qwen2.5:7b-instruct(中文友好)或ollama run llama3:8b-instruct(综合能力)。
  2. 配置有限(8G 内存 / 无独显):选 1.8B/2B/3.8B 量级(如phi3:3.8b-instruct),避免卡顿。
  3. 国内网络:模型下载慢可先设置 Ollama 镜像(搜索 “Ollama 国内镜像源”),或用代理。
  4. 切换模型:运行新模型前,先执行ollama stop 旧模型名释放资源。

总结

  1. 中文场景优先选通义千问 2.5(7B),命令:ollama run qwen2.5:7b-instruct
  2. 编程场景优先选DeepSeek-Coder(7B),命令:ollama run deepseek-coder:7b-instruct
  3. 推理场景优先选DeepSeek-R1(7B)Llama 3(8B),低配设备选Phi-3(3.8B)
http://www.jsqmd.com/news/512257/

相关文章:

  • 保姆级教程:用Fish-Speech-1.5为视频配音,支持中英日等13种语言
  • 保姆级教程:用Gmapping给阿克曼小车建图,从参数调优到地图保存全流程
  • 爱普生机械手与智能控制系统的完美结合
  • 树莓派+STM32+激光雷达:大学生工训赛智能物流小车全栈开发实战(附避坑指南)
  • Qwen-Image镜像高算力适配:RTX4090D 24GB显存满载运行Qwen-VL无OOM报错
  • SenseVoice-small部署教程:ONNX量化版WebUI保姆级实战指南
  • 当大模型‘想’错了:拆解CoT思维链中的常见逻辑陷阱与纠偏策略
  • Modbus RTU模式下的3.5字符间隔:为什么9600波特率下要设置4ms?
  • ESP32桌面天气站:Wi-Fi+TFT+电容触摸全栈实现
  • Ostrakon-VL-8B模型效果深度评测:多场景图文理解能力实测
  • OFA-Image-Caption模型效果量化评估:使用BLEU、CIDEr等指标进行科学测评
  • Camunda流程引擎踩坑实录:从Modeler画图到REST API调用的5个常见错误及解决方案
  • Windows11+Ubuntu双系统下detectron2安装全攻略(附CUDA版本避坑指南)
  • Qwen3-32B-Chat部署教程:GPU共享方案(MIG/NVIDIA MPS)在多租户场景应用
  • 大数据基于java的旅游景点客流量数据分析_1k858
  • C语言OTA升级失败处理的“最后防线”:仅328字节ROM的独立Bootloader异常接管协议(已通过IEC 62304 Class C认证)
  • 实战·记一次从Vue前端到edusrc证书站的权限获取
  • Qwen2.5-VL-7B-Instruct多模态应用落地:电商商品图智能问答实战案例
  • MyBatis核心:Mapper接口凭什么能直接操作数据库?
  • 市政道路工程防滑性能优的花岗岩路沿石多少钱 - 工业推荐榜
  • 为雪女-斗罗大陆-造相Z-Turbo开发智能体(Agent):自动化角色设计工作流
  • 星露谷农场规划器完整指南:3步打造你的完美虚拟农场
  • IndexTTS2 V23优化升级:V23版本情感控制全面升级,效果更自然
  • JVM调优介绍 + 面试题标准答案(Java高级工程师专用)
  • 2026年西安、北京等地靠谱的文旅策划品牌企业推荐,哪家性价比高 - 工业设备
  • FRCRN降噪效果对比展示:电话录音与现场采访的清晰化处理
  • 分析西安靠谱文旅规划机构,中旅建设计性价比高值得选吗? - 工业品牌热点
  • Qwen3-32B-Chat镜像结构详解:/workspace目录设计、模型路径、依赖包预装清单
  • Qwen3-32B-Chat百度开发者实操:使用Postman调试Qwen3-32B API接口全流程
  • 大数据基于java的财经新闻文本挖掘分析与爬虫可视化应用