Ollama 相关命令
Ollama 常用命令大全
1. 模型管理
下载与拉取
# 下载指定模型ollama pull llama3# 下载特定版本ollama pull llama3:8b ollama pull qwen2:7b# 下载量化版本(节省空间)ollama pull llama3:8b-q4_0 ollama pull llama3:8b-q5_K_M# 从镜像源下载(如需要)OLLAMA_PROXY=http://your-proxy:port ollama pull llama3查看模型
# 列出所有已下载模型ollama list# 查看模型详细信息ollama show llama3# 查看模型参数和配置ollama show--modelfilellama3# 查看模型大小和占用空间ollama list--formatjson删除模型
# 删除指定模型ollamarmllama3# 删除特定版本ollamarmllama3:8b# 批量删除(需脚本)ollama list|grepllama3|awk'{print $1}'|xargs-I{}ollamarm{}复制模型
# 创建模型副本ollamacpllama3 my-llama3# 复制特定版本ollamacpllama3:8b my-llama3:latest2. 运行与交互
基础运行
# 交互式运行ollama run llama3# 运行特定版本ollama run llama3:8b# 单条命令运行ollama run llama3"解释量子力学"# 从标准输入读取echo"写一首诗"|ollama run llama3# 从文件读取ollama run llama3<prompt.txt参数控制
# 设置温度(0.0-2.0,越高越随机)ollama run llama3--temperature0.7# 设置最大生成 token 数ollama run llama3 --num-predict500# 设置上下文窗口大小ollama run llama3 --num-context4096# 设置重复惩罚ollama run llama3 --repeat-penalty1.1# 多参数组合ollama run llama3--temperature0.5--num-predict1000--num-context8192会话控制
# 保持会话时间ollama run llama3--keepalive30m# 在交互模式中:# /bye - 退出# /help - 显示帮助# /show info - 显示模型信息# /set parameter temperature 0.5 - 设置参数# /set system "你是一位..." - 设置系统提示词3. 模型创建与自定义
创建 Modelfile
# 基础示例 FROM llama3 PARAMETER temperature 0.7 PARAMETER num_predict 1000 SYSTEM You are a helpful assistant.创建自定义模型
# 从现有模型创建ollama create my-model-fModelfile# 从文件创建(支持 .gguf 格式)ollama create my-model-f./model.gguf# 创建多模态模型ollama create my-model-fModelfile修改模型参数
# 基于现有模型修改参数ollama create my-llama3-f-<<EOF FROM llama3 PARAMETER temperature 0.5 PARAMETER num_ctx 8192 SYSTEM You are a coding assistant. EOF4. API 与服务管理
启动服务
# 启动 Ollama 服务ollama serve# 指定主机和端口OLLAMA_HOST=127.0.0.1:11435 ollama serve# 后台运行(Linux/macOS)nohupollama serve>ollama.log2>&1&# Windows 后台运行start /B ollama serveAPI 调用示例
# 生成补全curlhttp://localhost:11434/api/generate-d'{ "model": "llama3", "prompt": "Hello", "stream": false }'# 对话补全curlhttp://localhost:11434/api/chat-d'{ "model": "llama3", "messages": [ {"role": "user", "content": "你好"} ], "stream": false }'# 流式输出curlhttp://localhost:11434/api/chat-d'{ "model": "llama3", "messages": [{"role": "user", "content": "写故事"}], "stream": true }'# 检查模型是否加载curlhttp://localhost:11434/api/tags# 获取系统信息curlhttp://localhost:11434/api/version服务控制
# 查看服务状态ollamaps# 停止服务(Linux/macOS)killallollama# Windows 停止taskkill /F /IM ollama.exe5. 系统管理
环境变量
# 设置代理exportOLLAMA_PROXY="http://proxy:port"# 设置模型存储目录exportOLLAMA_MODELS="/path/to/models"# 设置主机地址exportOLLAMA_HOST="0.0.0.0:11434"# 设置最大并发数exportOLLAMA_NUM_PARALLEL=4# 设置最大内存使用exportOLLAMA_MAX_LOADED_MODELS=2# Windows (PowerShell)$env:OLLAMA_PROXY="http://proxy:port"$env:OLLAMA_MODELS="D:\ollama\models"服务管理(Linux)
# 启动服务sudosystemctl start ollama# 停止服务sudosystemctl stop ollama# 重启服务sudosystemctl restart ollama# 设置开机自启sudosystemctlenableollama# 查看服务状态sudosystemctl status ollama# 查看日志sudojournalctl-uollama-f服务管理(macOS)
# 启动服务launchctl start com.ollama# 停止服务launchctl stop com.ollama# 查看状态launchctl list|grepollama服务管理(Windows)
# 启动服务Start-Serviceollama# 停止服务Stop-Serviceollama# 重启服务Restart-Serviceollama# 设置开机自启Set-Serviceollama-StartupType Automatic6. 实用工具命令
查看帮助
# 显示所有命令ollama--help# 查看具体命令帮助ollama run--helpollama pull--helpollama create--help版本信息
# 查看版本ollama--version# 查看详细信息ollama version清理缓存
# 清理未使用的模型层ollama prune# 清理所有缓存(谨慎使用)rm-rf~/.ollama/blobs导入模型
# 从 GGUF 文件导入ollama create my-model-f./model.gguf# 从 Ollama 模型导出(需脚本)ollama show--modelfilellama3>Modelfile7. 批量操作脚本
批量下载模型
#!/bin/bashMODELS=("llama3:8b""qwen2:7b""mistral:7b""gemma:2b")formodelin"${MODELS[@]}";doecho"下载:$model"ollama pull$modeldone批量测试模型
#!/bin/bashPROMPT="用一句话介绍自己"formodelin$(ollama list|tail-n+2|awk'{print $1}');doecho"测试模型:$model"ollama run$model"$PROMPT"--temperature0.5echo"---"done清理旧模型
#!/bin/bash# 删除超过 30 天未使用的模型ollama list|tail-n+2|whilereadmodel sizedate;do# 这里可以添加日期判断逻辑echo"准备删除:$model"# ollama rm $modeldone8. 诊断与调试
检查系统兼容性
# 查看 GPU 使用情况ollamaps# 查看模型加载状态ollama list# 测试模型运行ollama run llama3"测试"--num-predict10日志查看
# 查看服务日志(Linux)sudojournalctl-uollama-f# 查看应用日志tail-f~/.ollama/logs/server.log# Windows 日志Get-Content$env:APPDATA\ollama\logs\server.log-Tail50-Wait网络诊断
# 检查服务是否运行curlhttp://localhost:11434/api/version# 检查端口占用netstat-an|grep11434# Windowsnetstat-an|findstr11434这些命令涵盖了 Ollama 的主要功能。建议先掌握pull、run、list、rm等基础命令,再逐步学习高级功能。
