Ollama 完全指南:本地部署大模型的神器
一、什么是 Ollama?
Ollama 是一个开源的大模型管理工具,它可以帮助你在本地轻松运行、管理和定制各种大型语言模型(LLMs)。无论是进行文本生成、代码编写还是智能对话,Ollama 都提供了简洁的命令行界面和丰富的功能。
核心功能:
本地化部署模型,无需联网
支持模型下载、管理、运行
可对模型进行微调和预训练
提供 REST API 供其他程序调用
跨平台支持(Windows、macOS、Linux)
二、安装 Ollama
方式一:官网下载(推荐)
访问ollama.com下载对应系统的安装包,双击安装即可。
方式二:使用 curl 脚本(macOS/Linux)
bash
curl -fsSL https://ollama.com/install.sh | sh
方式三:Homebrew(macOS)
bash
brew install ollama
安装完成后,在终端输入ollama --version验证是否成功。
三、常用命令详解(附截图指南)
以下每个命令我都会说明如何操作,并给出截图示例。你可以实际操作后截图保存,作为学习笔记。
1. 运行模型:ollama run
作用:启动一个模型,如果本地没有则自动下载。
语法:ollama run <模型名>
截图示例:
执行命令前:终端显示无该模型。
执行命令后:开始下载模型并进入交互式对话界面。
bash
ollama run qwen2:0.5b
2. 查看模型信息:ollama show
作用:显示模型的详细信息,如参数数量、模板、系统提示等。
语法:ollama show <模型名>
bash
ollama show qwen2:0.5b
(截图应显示模型元数据,如架构、参数量、上下文长度等)
3. 下载模型:ollama pull
作用:从远程仓库下载模型到本地(支持断点续传)。
语法:ollama pull <模型名>
bash
ollama pull llama3.2:3b
4. 查看当前运行的模型:ollama ps
作用:列出当前正在运行的模型进程。
bash
ollama ps
5. 删除模型:ollama rm
作用:从本地删除指定的模型文件。
bash
ollama rm qwen2:0.5b
6. 列出本地模型:ollama list或ollama ls
作用:显示所有已下载到本地的模型。
bash
ollama list # 或 ollama ls
(截图显示模型名称、ID、大小、修改时间等)
7. 退出交互模式:/bye
作用:在 Ollama 的交互式对话界面中退出程序。
bash
/bye
(截图显示输入/bye后退出到终端提示符)
8. 显示模型信息(同show):/show或/show info
作用:在交互式会话中显示当前加载的模型信息。
bash
/show # 或 /show info
(截图显示模型参数、系统提示等)
9. 设置输出格式:/set format json和/set noformat
作用:控制输出是否为 JSON 格式,便于其他程序解析。
bash
/set format json # 启用 JSON 输出 /set noformat # 恢复普通文本输出
10. 修改模型参数:/set
作用:在交互式会话中修改模型的运行时参数,如温度、top_p 等。
bash
/set parameter temperature 0.7
(截图显示参数修改成功的提示)
11. 清除上下文:/clear
作用:清空当前会话的对话历史,相当于重置聊天。
bash
/clear
(截图显示清除后对话历史为空)
12. 切换模型:/load
作用:在交互式会话中切换到另一个已下载的模型。
bash
/load "qwen2:0.5b"
(截图显示切换后模型加载成功的提示)
13. 保存当前对话:/save
作用:将当前会话的对话历史保存到文件。
bash
/save my_conversation.txt
(截图显示保存成功的提示)
14. 查看帮助:/?
作用:显示所有可用命令的帮助信息。
bash
/?
(截图显示命令列表和简要说明)
四、Ollama 快捷键(提高效率的秘诀)
在 Ollama 的交互式对话界面中,可以使用以下快捷键来提升操作效率:
使用技巧:
在输入长 prompt 时,
Ctrl + A和Ctrl + E可以快速定位到行首行尾。如果需要修正拼写错误,
Ctrl + B和Ctrl + F可以逐词移动光标。当模型输出内容过多时,按
Ctrl + C可以立即停止生成,避免等待。要退出对话,直接输入
/bye更直观,但Ctrl + D在无输入时也能快速退出。
五、注意事项
模型名称格式:通常是
作者/模型名:标签,如llama3.2:3b、deepseek-r1:7b。首次运行模型会自动下载,请确保网络通畅。
使用
--insecure参数可以跳过 SSL 验证(不推荐用于生产环境)。如果遇到
ggml_metal_library_init错误,通常是 macOS 版本过旧或 Metal 驱动不兼容,请升级系统或使用 CPU 模式。
六、总结
Ollama 让本地运行大模型变得异常简单,无需复杂的配置和依赖管理。通过上述命令,你可以轻松完成模型的下载、运行、切换和管理。建议初学者从qwen2:0.5b或llama3.2:3b等小模型开始尝试,熟悉后再挑战更大的模型。
如果你在 M5 芯片的 Mac 上遇到问题,记得升级到 macOS Tahoe 26.4.1 或更高版本,这能解决大部分底层兼容性故障。
附:快速命令速查表
| 命令 | 功能 |
|---|---|
ollama run <模型名> | 运行模型(自动下载) |
ollama show <模型名> | 查看模型详情 |
ollama pull <模型名> | 下载模型 |
ollama ps | 查看运行中的模型 |
ollama rm <模型名> | 删除模型 |
ollama list/ollama ls | 列出本地模型 |
/bye | 退出交互模式 |
/show//show info | 显示当前模型信息 |
/set format json | 设置 JSON 输出 |
/set noformat | 取消 JSON 输出 |
/set | 修改模型参数 |
/clear | 清除对话历史 |
/load | 切换模型 |
/save | 保存对话到文件 |
/? | 查看帮助 |
附:快捷键速查表
| 快捷键 | 功能描述 |
|---|---|
Ctrl + A | 移动光标到行首 |
Ctrl + E | 移动光标到行尾 |
Ctrl + B | 向左移动一个单词 |
Ctrl + F | 向右移动一个单词 |
Ctrl + K | 删除光标位置到行尾的所有内容 |
Ctrl + U | 删除光标位置到行首的所有内容 |
Ctrl + W | 删除光标前的一个单词 |
Ctrl + L | 清屏(类似clear命令) |
Ctrl + C | 停止当前正在生成的输出(中断推理) |
Ctrl + D | 退出对话(仅在没有任何输入时生效) |
希望这篇指南对你有帮助!如果有任何问题,欢迎在评论区留言讨论。
