当前位置: 首页 > news >正文

本地部署 AI 大模型保姆级教程:Ollama 安装、模型下载与终端实战全流程

前言

最近我在本地部署大模型时选择了 Ollama。Ollama 的优点是安装简单、命令清晰、模型管理方便,非常适合新手快速体验本地大语言模型。

但是我在安装过程中踩了一个很典型的坑:

我明明把 Ollama 安装到了 E 盘,结果模型还是下载到了 C 盘。

所以这篇文章不仅会讲 Ollama 怎么安装、怎么运行模型,还会重点讲清楚:

  • Ollama 软件安装位置怎么改
  • 模型下载位置怎么改
  • 为什么模型会默认进 C 盘
  • 如何把 Ollama 加入 Path
  • 如何检查模型是否真的下载成功

如果你也不想让大模型占满 C 盘,这篇文章建议认真看完。


一、Ollama 是什么?

Ollama 是一个可以在本地运行大语言模型的工具。

简单来说,Ollama 就像是一个“本地大模型运行器”。它可以帮我们下载模型、管理模型,并在本地电脑上运行模型。安装好 Ollama 后,我们只需要通过几条命令,就可以在终端里和 Qwen、Llama、DeepSeek 等开源大模型进行对话。

通过 Ollama,我们可以在自己的电脑上运行很多开源模型,例如 Qwen、Llama、DeepSeek、Gemma、Mistral、Phi 等。

本地运行大模型的好处是:

  • 数据更私密
  • 不依赖在线 API
  • 下载完成后可以本地运行
  • 适合学习大模型部署和调用
  • 可以接入 Python、Java、前端项目等应用

二、下载 Ollama 安装包

Ollama 官网地址:

https://ollama.com

进入官网后,根据自己的系统下载对应版本。

我这里使用的是 Windows 版本。


三、把 Ollama 软件安装到 E 盘

默认情况下,Ollama 会安装到用户目录。如果你不想安装到 C 盘,可以手动指定安装目录。

我这里的目标安装目录是:

E:\ollama

先在 E 盘创建一个文件夹:

E:\ollama

建议路径不要使用中文,避免后续出现奇怪的问题。

然后把下载好的安装包放到这个目录里,例如:

E:\ollama\OllamaSetup.exe

在文件资源管理器地址栏输入:

cmd

回车后会直接在当前目录打开命令行窗口。

然后执行:

OllamaSetup.exe /DIR=E:\ollama

如果路径中有空格,建议加双引号:

OllamaSetup.exe /DIR="E:\ollama"

等待安装程序启动并完成安装即可。


四、重要避坑:安装目录不等于模型目录

这是我踩过的坑,也是这篇文章最想提醒大家的地方。

很多人以为执行了:

OllamaSetup.exe /DIR=E:\ollama

就代表 Ollama 下载的大模型也会保存到:

E:\ollama

其实不是。

这个命令只改变了 Ollama 软件本体的安装位置。

也就是说:

/DIR=E:\ollama

控制的是 Ollama 程序安装在哪里。

但是大模型默认仍然可能下载到:

C:\Users\你的用户名\.ollama\models

例如我的电脑上就是:

C:\Users\21376\.ollama\models

这个目录下面通常会有两个文件夹:

blobs manifests

其中:

blobs 存放模型的大文件 manifests 存放模型索引信息

如果只看到 blobs,但是 manifests 是空的,那么 ollama list 可能识别不到模型。


五、把模型保存位置改到 E 盘

如果不想让模型下载到 C 盘,需要设置环境变量:

OLLAMA_MODELS

例如我希望模型统一保存到:

E:\ollama\models

先创建目录:

mkdir E:\ollama\models

然后执行:

setx OLLAMA_MODELS "E:\ollama\models"

执行完成后,关闭当前 CMD 窗口,重新打开一个新的 CMD。

验证环境变量是否生效:

echo %OLLAMA_MODELS%

如果输出:

E:\ollama\models

说明配置成功。

注意:如果 Ollama 已经在后台运行,需要退出右下角托盘里的 Ollama,然后重新启动 Ollama。否则它可能还在使用旧配置。


六、把 Ollama 加入系统 Path

我安装到 E 盘后,还遇到了另一个问题。

在 C:\Users\用户名> 下执行:

ollama list

提示:

'ollama' 不是内部或外部命令,也不是可运行的程序或批处理文件。

这说明 Windows 找不到 ollama.exe,也就是 Ollama 没有加入 Path。

临时解决方法是直接使用完整路径:

E:\ollama\ollama.exe list

或者:

E:\ollama\ollama.exe run qwen2.5:1.5b

但这样每次都要写完整路径,比较麻烦。

推荐永久解决方式:

此电脑 -> 属性 -> 高级系统设置 -> 环境变量

找到用户变量或系统变量中的:

Path

点击编辑,新增一项:

E:\ollama

保存后,关闭 CMD,重新打开。

验证:

ollama --version

如果能看到版本号,说明配置成功。

以后就可以在任意目录执行:

ollama list ollama run qwen2.5:1.5b


七、下载并运行 Qwen 模型

配置好模型目录和 Path 后,就可以运行模型了。

例如运行 Qwen2.5 1.5B:

ollama run qwen2.5:1.5b

第一次运行时,如果本地没有这个模型,Ollama 会自动下载。

终端中会看到类似信息:

pulling manifest pulling 183715c43589: 100% 986 MB verifying sha256 digest writing manifest success

看到 success 就表示模型下载完成。

随后会进入对话模式:

>>> Send a message

可以输入:

你好,请介绍一下你自己

退出对话:

/bye


八、查看已下载模型

查看当前 Ollama 能识别到的模型:

ollama list

如果模型下载成功,会看到类似:

NAME ID SIZE MODIFIED qwen2.5:1.5b xxxxxxxx 986 MB ...

如果只显示表头:

NAME ID SIZE MODIFIED

说明当前 Ollama 模型目录里没有可识别的模型。

这时要检查当前模型目录:

echo %OLLAMA_MODELS%

确认当前模型目录是不是你想要的路径。

如果没有配置 OLLAMA_MODELS,模型默认可能会保存在:

C:\Users\你的用户名\.ollama\models


九、常用 Ollama 命令

查看模型列表:

ollama list

运行模型:

ollama run qwen2.5:1.5b

只下载模型,不进入对话:

ollama pull qwen2.5:1.5b

删除模型:

ollama rm qwen2.5:1.5b

查看正在运行的模型:

ollama ps

查看模型信息:

ollama show qwen2.5:1.5b

查看 Ollama 版本:

ollama --version


十、我踩过的坑总结

1. 在 E 盘运行命令,不代表模型下载到 E 盘

例如:

E:\ollama>ollama run qwen2.5:1.5b

这只能说明当前命令是在 E:\ollama 目录执行的。

模型到底保存在哪里,取决于:

OLLAMA_MODELS

如果没有配置,默认可能还是 C 盘用户目录。


2. 软件安装位置和模型保存位置是两回事

OllamaSetup.exe /DIR=E:\ollama

控制软件安装位置。

OLLAMA_MODELS=E:\ollama\models

控制模型保存位置。

Path 加入 E:\ollama

控制能不能在任意目录使用 ollama 命令。

这三个概念一定要分清楚。


3. ModelScope 下载的模型不能直接当作 Ollama 模型运行

我之前在 E 盘有一个目录:

E:\qwen2.5\Qwen2.5-0.5B-Instruct

这个大概率是通过 ModelScope 下载的原始模型文件。

但是我运行的是:

ollama run qwen2.5:1.5b

这两个不是同一个东西。

Ollama 下载的是它自己管理的模型格式和索引结构,通常在:

models\blobs models\manifests

所以即使你本地有 ModelScope 下载的模型,Ollama 也不会自动识别成:

qwen2.5:1.5b


十一、推荐新手选择什么模型?

如果电脑配置一般,建议先从小模型开始。

例如:

ollama run qwen2.5:0.5b ollama run qwen2.5:1.5b ollama run llama3.2:1b ollama run deepseek-r1:1.5b

如果内存较大,可以尝试:

ollama run qwen2.5:7b ollama run llama3.1:8b

简单理解:

0.5B / 1.5B:占用较小,适合新手测试 7B / 8B:效果更好,但更吃内存和显卡 14B 以上:配置要求更高

新手建议先跑通小模型,再尝试大模型。


十二、完整推荐流程

如果你想把 Ollama 和模型都放到 E 盘,可以按照下面流程来:

1. 创建安装目录

mkdir E:\ollama

2. 安装 Ollama 到 E 盘

进入安装包所在目录后执行:

OllamaSetup.exe /DIR=E:\ollama

3. 创建模型目录

mkdir E:\ollama\models

4. 设置模型目录环境变量

setx OLLAMA_MODELS "E:\ollama\models"

5. 把 E:\ollama 加入 Path

环境变量 Path 中新增:

E:\ollama

6. 重新打开 CMD 验证

echo %OLLAMA_MODELS% ollama --version

7. 下载并运行模型

ollama run qwen2.5:1.5b

8. 查看模型

ollama list


十三、最后总结

Ollama 是一个非常适合新手学习本地大模型部署的工具。安装简单,命令清晰,下载模型后就可以直接在本地对话。

但是在 Windows 上使用时,一定要注意三个路径问题:

1. /DIR=E:\ollama 控制 Ollama 软件安装位置 2. OLLAMA_MODELS=E:\ollama\models 控制模型下载和保存位置 3. Path 添加 E:\ollama 控制能不能在任意目录使用 ollama 命令

如果你不想让模型占满 C 盘,千万不要只改 /DIR,一定要同时配置:

setx OLLAMA_MODELS "E:\ollama\models"

这就是我本次安装 Ollama 最大的经验教训。

希望这篇文章能帮你少踩坑,顺利跑通自己的第一个本地大模型。

http://www.jsqmd.com/news/779028/

相关文章:

  • 5G神经接收器技术:站点特定微调与性能优化
  • Nginx 入门教程(安装、反向代理、负载均衡、动静分离)
  • 口碑好的常州汽车开锁企业有哪些?百姓开锁18052537666本地优秀靠谱单位 - 品牌企业推荐师(官方)
  • 基于MCP协议构建AI智能体工具服务器:从原理到实战部署
  • 终极鸣潮自动化指南:开源工具OK-WW如何解放你的双手
  • 在嵌入式项目中观测大模型API用量与成本的实际体验
  • 6个月速成!从0基础到LLM开发工程师,抓住AI风口,高薪就业不是梦!
  • AGI的到来对普通人的影响
  • 2026年5月丨办公家具企业转型趋势:从功能到体验的跨越 - 品牌企业推荐师(官方)
  • FPGA上实现SM4加密:用Verilog写一个‘边算边用’的循环迭代核心
  • facefusion-3.6.1
  • 三河开锁哪家靠谱?三河市聚凯开锁15100720433河北直营店攻略 - 品牌企业推荐师(官方)
  • ThreadPoolexecutor源码分析、C++11线程池实现
  • 2026年尼龙牛津布实力厂家精选 - 品牌企业推荐师(官方)
  • G-Helper技术解析:华硕笔记本硬件控制框架的逆向工程实现与性能优化
  • 气凝胶+玄武岩复合毡 | 石化管道场景的经济账:投资回收期2-5年,减碳数百吨/年
  • 告别Burp Intruder!用Yakit的Web Fuzzer,一个标签搞定密码爆破、目录扫描和Host碰撞
  • 口碑好的乐清市管道疏通疏通下水道服务好的机构?乐清市鑫诚13868771395本地直营单位 - 品牌企业推荐师(官方)
  • 春季提高思维能力测试(B) A.符文大陆
  • 手把手教你用Keil C51插件搞定赛元SC92F73A3单片机IO口配置(附避坑指南)
  • 基础SQL:约束
  • 2026年美容仪器排名前十品牌,真实用户评价深度解析 - 品牌企业推荐师(官方)
  • 从SITS2026看AISMM评估拐点:为什么头部企业已在Q2完成差距分析与基线对标?
  • 告别数据丢失!ABAP ALV修改事件(Data Changed)的两种正确注册与刷新姿势
  • 开源大模型机械爪操作能力评测框架解析与实践
  • Arm Cortex-X2处理器编程陷阱与解决方案
  • 零代码RAG构建与向量数据库操作:从文档到知识的自动化之路
  • 风电系统光纤通信技术应用与优化指南
  • 2026壁挂炉十大品牌硬核横评:抛开营销看数据,选对品牌能省一半气费?
  • 81页精品PPT | 企业数字化底座与数字化转型方案