当前位置: 首页 > news >正文

Ollama 相关命令

Ollama 常用命令大全

1. 模型管理

下载与拉取

# 下载指定模型ollama pull llama3# 下载特定版本ollama pull llama3:8b ollama pull qwen2:7b# 下载量化版本(节省空间)ollama pull llama3:8b-q4_0 ollama pull llama3:8b-q5_K_M# 从镜像源下载(如需要)OLLAMA_PROXY=http://your-proxy:port ollama pull llama3

查看模型

# 列出所有已下载模型ollama list# 查看模型详细信息ollama show llama3# 查看模型参数和配置ollama show--modelfilellama3# 查看模型大小和占用空间ollama list--formatjson

删除模型

# 删除指定模型ollamarmllama3# 删除特定版本ollamarmllama3:8b# 批量删除(需脚本)ollama list|grepllama3|awk'{print $1}'|xargs-I{}ollamarm{}

复制模型

# 创建模型副本ollamacpllama3 my-llama3# 复制特定版本ollamacpllama3:8b my-llama3:latest

2. 运行与交互

基础运行

# 交互式运行ollama run llama3# 运行特定版本ollama run llama3:8b# 单条命令运行ollama run llama3"解释量子力学"# 从标准输入读取echo"写一首诗"|ollama run llama3# 从文件读取ollama run llama3<prompt.txt

参数控制

# 设置温度(0.0-2.0,越高越随机)ollama run llama3--temperature0.7# 设置最大生成 token 数ollama run llama3 --num-predict500# 设置上下文窗口大小ollama run llama3 --num-context4096# 设置重复惩罚ollama run llama3 --repeat-penalty1.1# 多参数组合ollama run llama3--temperature0.5--num-predict1000--num-context8192

会话控制

# 保持会话时间ollama run llama3--keepalive30m# 在交互模式中:# /bye - 退出# /help - 显示帮助# /show info - 显示模型信息# /set parameter temperature 0.5 - 设置参数# /set system "你是一位..." - 设置系统提示词

3. 模型创建与自定义

创建 Modelfile

# 基础示例 FROM llama3 PARAMETER temperature 0.7 PARAMETER num_predict 1000 SYSTEM You are a helpful assistant.

创建自定义模型

# 从现有模型创建ollama create my-model-fModelfile# 从文件创建(支持 .gguf 格式)ollama create my-model-f./model.gguf# 创建多模态模型ollama create my-model-fModelfile

修改模型参数

# 基于现有模型修改参数ollama create my-llama3-f-<<EOF FROM llama3 PARAMETER temperature 0.5 PARAMETER num_ctx 8192 SYSTEM You are a coding assistant. EOF

4. API 与服务管理

启动服务

# 启动 Ollama 服务ollama serve# 指定主机和端口OLLAMA_HOST=127.0.0.1:11435 ollama serve# 后台运行(Linux/macOS)nohupollama serve>ollama.log2>&1&# Windows 后台运行start /B ollama serve

API 调用示例

# 生成补全curlhttp://localhost:11434/api/generate-d'{ "model": "llama3", "prompt": "Hello", "stream": false }'# 对话补全curlhttp://localhost:11434/api/chat-d'{ "model": "llama3", "messages": [ {"role": "user", "content": "你好"} ], "stream": false }'# 流式输出curlhttp://localhost:11434/api/chat-d'{ "model": "llama3", "messages": [{"role": "user", "content": "写故事"}], "stream": true }'# 检查模型是否加载curlhttp://localhost:11434/api/tags# 获取系统信息curlhttp://localhost:11434/api/version

服务控制

# 查看服务状态ollamaps# 停止服务(Linux/macOS)killallollama# Windows 停止taskkill /F /IM ollama.exe

5. 系统管理

环境变量

# 设置代理exportOLLAMA_PROXY="http://proxy:port"# 设置模型存储目录exportOLLAMA_MODELS="/path/to/models"# 设置主机地址exportOLLAMA_HOST="0.0.0.0:11434"# 设置最大并发数exportOLLAMA_NUM_PARALLEL=4# 设置最大内存使用exportOLLAMA_MAX_LOADED_MODELS=2# Windows (PowerShell)$env:OLLAMA_PROXY="http://proxy:port"$env:OLLAMA_MODELS="D:\ollama\models"

服务管理(Linux)

# 启动服务sudosystemctl start ollama# 停止服务sudosystemctl stop ollama# 重启服务sudosystemctl restart ollama# 设置开机自启sudosystemctlenableollama# 查看服务状态sudosystemctl status ollama# 查看日志sudojournalctl-uollama-f

服务管理(macOS)

# 启动服务launchctl start com.ollama# 停止服务launchctl stop com.ollama# 查看状态launchctl list|grepollama

服务管理(Windows)

# 启动服务Start-Serviceollama# 停止服务Stop-Serviceollama# 重启服务Restart-Serviceollama# 设置开机自启Set-Serviceollama-StartupType Automatic

6. 实用工具命令

查看帮助

# 显示所有命令ollama--help# 查看具体命令帮助ollama run--helpollama pull--helpollama create--help

版本信息

# 查看版本ollama--version# 查看详细信息ollama version

清理缓存

# 清理未使用的模型层ollama prune# 清理所有缓存(谨慎使用)rm-rf~/.ollama/blobs

导入模型

# 从 GGUF 文件导入ollama create my-model-f./model.gguf# 从 Ollama 模型导出(需脚本)ollama show--modelfilellama3>Modelfile

7. 批量操作脚本

批量下载模型

#!/bin/bashMODELS=("llama3:8b""qwen2:7b""mistral:7b""gemma:2b")formodelin"${MODELS[@]}";doecho"下载:$model"ollama pull$modeldone

批量测试模型

#!/bin/bashPROMPT="用一句话介绍自己"formodelin$(ollama list|tail-n+2|awk'{print $1}');doecho"测试模型:$model"ollama run$model"$PROMPT"--temperature0.5echo"---"done

清理旧模型

#!/bin/bash# 删除超过 30 天未使用的模型ollama list|tail-n+2|whilereadmodel sizedate;do# 这里可以添加日期判断逻辑echo"准备删除:$model"# ollama rm $modeldone

8. 诊断与调试

检查系统兼容性

# 查看 GPU 使用情况ollamaps# 查看模型加载状态ollama list# 测试模型运行ollama run llama3"测试"--num-predict10

日志查看

# 查看服务日志(Linux)sudojournalctl-uollama-f# 查看应用日志tail-f~/.ollama/logs/server.log# Windows 日志Get-Content$env:APPDATA\ollama\logs\server.log-Tail50-Wait

网络诊断

# 检查服务是否运行curlhttp://localhost:11434/api/version# 检查端口占用netstat-an|grep11434# Windowsnetstat-an|findstr11434

这些命令涵盖了 Ollama 的主要功能。建议先掌握pullrunlistrm等基础命令,再逐步学习高级功能。

http://www.jsqmd.com/news/819375/

相关文章:

  • 构建组织级基础设施管理CLI:从设计到实现的全栈指南
  • 终极指南:3种方法快速部署Tsukimi Jellyfin客户端
  • 基于Electron的ChatGPT桌面客户端开发:从技术选型到功能实现
  • 携程问道(workbuddy 合作版)技能接入与使用文档
  • [具身智能-709]:ros2_control 里的 插件(Plugin)到底是什么?
  • Docker容器化高可用架构部署方案(九)
  • 基于MCP协议与微软Graph API构建安全可控的AI助手Outlook集成方案
  • ARM架构CPTR寄存器解析:虚拟化与安全控制
  • 知识入库:从文档加载到文本拆分
  • 运维系列【仅供参考】:彻底清除TortoiseSVN:从基础卸载到深度清理全指南
  • 杰理之先开广播再切换SPDIF光纤输入,会打印‘a’,无法播放和广播【篇】
  • 【权威实测报告】:对比12种生成场景下的真实Cost/Img,Midjourney API性价比跌破临界点?
  • AI驱动代码库优化:基于Claude Code的上下文工程与自动化重构实践
  • Copaw:专为算法竞赛设计的本地自动化测试与调试工具
  • CircuitPython库管理实战:从零构建嵌入式开发环境
  • 2026年AI学习指南:收藏这份靠谱进阶路径,轻松拉开差距!
  • 【shell编程知识点汇总】第九章 HTML 清洗、多行合并与条件替换
  • 说说Markdown为什么不会被HTML取代
  • KMS_VL_ALL_AIO:智能激活解决方案完全解析
  • 第6章:C++ Sanitizer全家桶实战
  • day22_深度学习入门与pytorch
  • 程序员的副业天花板:靠接私活实现年入百万的秘诀
  • AI智能体技能库开发指南:从原理到实战构建高效Agent应用
  • 苍穹外卖开发日记-微信登录
  • 2026年5月更新:美甲产业升级,甲片专用机定制厂家遴选全攻略 - 2026年企业推荐榜
  • PKSM终极指南:从菜鸟到宝可梦存档管理大师的完整路径
  • Dify插件重打包工具:标准化分发与一键部署实践
  • SPI长距离通信的时钟同步与信号完整性优化
  • 从零上手VibeCoding(ClaudeCode+DeepSeek V4.Pro)
  • 0. 深度学习课程大纲: