[具身智能-503]:通过ollama与模型进行交互的命令
与 Ollama 模型交互主要有两种方式:一种是进入交互式对话模式,像聊天一样持续沟通;另一种是非交互式调用,发送单次指令并立即获取结果,适合脚本自动化。
💬 交互式对话模式
这是最常用的方式,你会进入一个持续的对话环境,模型会记住上下文。
启动对话
在终端中直接运行模型,如果模型未下载,Ollama 会自动先拉取。
ollama run <模型名称>示例:
bash
# 运行 Qwen2.5 模型 ollama run qwen2.5:7b运行后,你会看到>>>提示符,表示可以开始输入了。
对话中的快捷指令
进入>>>提示符后,可以使用以下特殊指令:
/bye:退出当前对话,返回到系统命令行。/clear:清空当前的对话历史,让模型“失忆”,开始新的话题。/?或/help:查看所有可用的交互指令。/set:设置模型参数,例如/set temperature 0.7。
多行输入技巧
如果你想输入包含换行符的长文本,可以使用三引号"""包裹起来。
bash
>>> """ 这是一个多行输入的例子。 你可以一次性发送大段文本给模型。 """⚡ 非交互式调用(单次指令)
这种方式适合在脚本中调用,或者只需要模型回答一个问题的情况。命令执行完毕后会自动退出。
直接在命令行中提问
将你的问题用引号包裹,作为ollama run命令的参数。
bash
ollama run <模型名称> "你的问题或指令"示例:
bash
ollama run llama3.2 "解释什么是机器学习"使用管道(Pipe)传递内容
你可以将其他命令的输出通过管道|传递给 Ollama 模型进行处理。
示例:
bash
echo "1+1等于几?" | ollama run qwen2.5:7b使用ollama generate命令
这个命令专门用于非交互式生成内容,功能与ollama run类似,但语义更明确。
bash
ollama generate <模型名称> "你的提示词"🤖 高级交互方式
图片识别(多模态)
如果你的模型支持图像识别(如llava),可以使用-i参数指定图片路径。
bash
ollama run llava "描述这张图片" -i ./image.jpg结构化对话(JSON 输出)
如果你需要程序解析模型的输出,可以要求模型以 JSON 格式返回。
bash
ollama chat <模型名称> --format json📊 交互方式对比
表格
| 交互方式 | 命令示例 | 适用场景 |
|---|---|---|
| 交互式对话 | ollama run qwen2.5 | 多轮聊天、上下文关联任务、调试提示词 |
| 单次指令 | ollama run qwen2.5 "翻译这句话" | 脚本自动化、快速问答、批处理 |
| 管道输入 | `cat file.txt | ollama run qwen2.5` |
| 多模态 | ollama run llava "..." -i image.jpg | 图片描述、视觉问答 |
