ollama 基础命令
1. 启动Ollama服务
在终端中输入以下命令启动Ollama服务:
ollama serve
这会启动一个本地服务器,允许您通过HTTP或命令行与Ollama进行交互。
2. 查看可用模型
要查看当前已安装的所有模型列表,请使用:
ollama list
此命令会列出所有可用于推理和训练的预训练模型。
3. 下载特定模型
如果您需要使用某个具体的模型,可以使用以下命令下载它:
ollama pull <model_name>
将<model_name>替换为您想要下载的模型名称。
4. 运行推理任务
要对文本进行推理(如生成、分类等),请使用:
ollama generate --prompt "您的输入文本" --model <model_name>
其中,--prompt参数用于提供输入文本,--model指定使用的模型名称。
5. 调整推理参数
Ollama允许您调整多种推理参数以获得更好的结果。例如:
ollama generate --prompt "您的输入文本" --temperature 0.7 --top_p 0.9
--model <model_name>
--temperature:控制输出的随机性,数值越大,输出越多样化。--top_p:影响生成结果的多样性与质量。
6. 查看模型详细信息
要了解某个特定模型的详细信息,包括支持的任务类型和参数设置,可以使用:
ollama info <model_name>
7. 配置Ollama设置
Ollama允许您通过配置文件自定义一些全局设置。首先,查看当前配置:
ollama config list
然后,修改特定的配置项,例如调整默认的设备类型(如GPU或CPU):
ollama config set device.cuda true
8. 更新Ollama
当有新版本发布时,您可以更新Ollama以获得最新的功能和改进:
ollama update
9. 卸载Ollama(如有需要)
如果您决定不再使用Ollama,可以卸载它。在终端中执行以下命令:
sudo ollama uninstall
这将删除所有与Ollama相关联的文件和配置。
