当前位置: 首页 > news >正文

Ollama 运行模型

Ollama 运行模型使用 ollama run 命令。

例如我们要运行 Llama 3.2 并与该模型对话可以使用以下命令:
ollama run llama3.2

执行以上命令如果没有该模型会去下载 llama3.2 模型:
image
等待下载完成后,我们在终端中,输入以下命令来加载 LLama3.2 模型并进行交互:
`writing manifest
success

你好
Hello

能讲中文吗
是的,我可以在 Chinese 中对話。哪些话题或问题想要了解我呢?`

结束对话可以输入 /bye 或按 Ctrl+d 按键来结束。

我们可以使用 ollama list,查看已安装的模型:

NAME ID SIZE MODIFIED llama3.2 baf6a787fdff 1.3 GB 4 minutes ago

Ollama 支持的模型可以访问:https://ollama.com/library
image
下表列出一些模型的下载命令:

模型 参数 大小 下载命令
Llama 3.3 70B 43GB ollama run llama3.3
Llama 3.2 3B 2.0GB ollama run llama3.2
Llama 3.2 1B 1.3GB ollama run llama3.2:1b
Llama 3.2 Vision 11B 7.9GB ollama run llama3.2-vision
Llama 3.2 Vision 90B 55GB ollama run llama3.2-vision:90b
Llama 3.1 8B 4.7GB ollama run llama3.1
Llama 3.1 405B 231GB ollama run llama3.1:405b
Phi 4 14B 9.1GB ollama run phi4
Phi 3 Mini 3.8B 2.3GB ollama run phi3
Gemma 2 2B 1.6GB ollama run gemma2:2b
Gemma 2 9B 5.5GB ollama run gemma2
Gemma 2 27B 16GB ollama run gemma2:27b
Mistral 7B 4.1GB ollama run mistral
Moondream 2 1.4B 829MB ollama run moondream
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
LLaVA 7B 4.5GB ollama run llava
Solar 10.7B 6.1GB ollama run solar

通过 Python SDK 使用模型
如果你希望将 Ollama 与 Python 代码集成,可以使用 Ollama 的 Python SDK 来加载和运行模型。

1. 安装 Python SDK
首先,需要安装 Ollama 的 Python SDK,打开终端,执行以下命令:
pip install ollama

  1. 编写 Python 脚本
    接下来,你可以使用 Python 代码来加载和与模型交互。

以下是一个简单的 Python 脚本示例,演示如何使用 LLama3.2 模型来生成文本:
import ollama response = ollama.generate( model="llama3.2", # 模型名称 prompt="你是谁。" # 提示文本 ) print(response)

  1. 运行 Python 脚本
    在终端中运行你的 Python 脚本:
    python test.py
    你会看到模型根据你的输入返回的回答。

4.对话模式
from ollama import chat response = chat( model="llama3.2", messages=[ {"role": "user", "content": "为什么天空是蓝色的?"} ] ) print(response.message.content)

此代码会与模型进行对话,并打印模型的回复。
5. 流式响应
from ollama import chat stream = chat( model="llama3.2", messages=[{"role": "user", "content": "为什么天空是蓝色的?"}], stream=True ) for chunk in stream: print(chunk["message"]["content"], end="", flush=True)

http://www.jsqmd.com/news/24649/

相关文章:

  • 【往届EI、Scopus已检索|ACM独立出版】第二届经济数据分析与人工智能国际学术会议 (EDAI 2025)
  • win11后台程序cpu高占用问题
  • 线段树的各种姿势
  • 2025 年矿井轴流通风机,矿井抽出式轴流对旋通风机,矿井压入式对旋轴流通风机,FKD 系列矿井压入式对旋轴流通风机厂家最新推荐,实力品牌深度解析采购无忧之选
  • 2025 年矿用隔爆型压入式轴流通风机,FKZ 系列矿井轴流通风机,FKCDZ 系列矿井抽出式轴流对旋通风机厂家最新推荐,聚焦资质、案例、售后的五家机构深度解读
  • 2025 年矿井压入式轴流通风机,矿用隔爆型压入式对旋轴流通风机,煤矿地面用抽出式轴流对旋通风机厂家最新推荐,精准检测与稳定性能深度解析
  • 第一次编程作业完结撒花!!!
  • LangGraph MCP - 使用LangGraph实现多智能体架构(七)
  • DP 复习 - L
  • 完整教程:swin-transformer架构解析和源码解析
  • 2025年沈阳/北京/东三省制造业企业商业秘密保护权威推荐榜单:高新技术企业与上市公司数据安全解决方案精选
  • 求职网站参考
  • LangGraph MCP - 使用LangGraph构建多智能体工作流(六)
  • 告别卡顿与等待,Rancher Vai 让集群操作“秒响应”
  • 2025 年机械设备铝型材,轻型铝型材,定制铝型材厂家最新推荐,产能、专利、环保三维数据透视
  • 2025 年铝型材框架、铝型材围栏、6063 铝型材、重型铝型材厂家最新推荐 —— 产能、专利、环保三维数据透视
  • LangGraph MCP - Graph(五)
  • 乐维社区“专家坐诊”第303期问答
  • Phpstudy博客网站apache2日志分析python代码 - 教程
  • 如何配置Docker通过代理去pull镜像
  • 2025年不停电双电源开关最新标杆厂家推荐:容磁电气,静态转换双电源开关|STS高速双电源开关|UTS高速双电源开关|ATS高速双电源开关|防晃电新标准​
  • 2025 年 10 月铝合金型材,工业铝型材,3030 铝型材,铝型材防护罩厂家最新推荐,产能、专利、环保三维数据透视!
  • 大数值的精度与格式化显示问题
  • LangGraph MCP - 使用 LangGraph构建单独的 Agent(四)
  • 深入解析:GESP2025年9月认证C++一级( 第三部分编程题(2)金字塔)
  • 2025 年碳化硅金刚线切割机,石墨金刚线切割机,陶瓷金刚线切割机厂家最新推荐,产能、专利、适配性三维数据透视
  • 2025 年 10 月油石、保温材料、玉石、石英金刚线切割机厂家最新推荐,产能、专利、环保三维数据透视
  • 2025 年 10 月瓦楞纸、蜂窝铝、硬质合金金刚线切割机厂家最新推荐,实力品牌深度解析采购无忧之选!
  • Ollama安装
  • 2025年泄压门厂家权威推荐榜单:防爆窗/泄爆门/抗爆窗源头厂家精选