当前位置: 首页 > news >正文

Ollama + ModelScope:本地大模型极简部署

核心目标:帮你用最短时间在本地跑通大模型,并选对部署工具。
适用人群:个人开发者、学生党、AI应用入门者。


一、Ollama:一条命令搞定本地大模型

1.1 是什么?

Ollama 是一个开箱即用的大模型本地运行框架,封装了底层推理引擎(llama.cpp),支持 macOS / Windows / Linux / Docker。

1.2 安装与常用命令

安装(Linux)

curl -fsSL https://ollama.com/install.sh | bash

Docker 方式

curl -fsSL https://ollama.com/install.sh | bash

常用命令

ollama run 模型名 # 下载并运行模型 ollama list # 查看已安装模型 ollama rm 模型名 # 删除模型

1.3 一键运行 ModelScope 模型

直接拉取魔搭社区的 GGUF 模型:

ollama run modelscope.cn/Qwen/Qwen2.5-3B-Instruct-GGUF ollama run modelscope.cn/unsloth/DeepSeek-R1-Distill-Qwen-1.5B-GGUF

二、调用大模型接口

2.1 Python 调用(OpenAI 兼容风格)

from openai import OpenAI client = OpenAI( base_url="http://localhost:11434/v1", api_key="ollama" ) response = client.chat.completions.create( model="qwen3.5:2b", messages=[{"role": "user", "content": "天空为什么是蓝色的?"}], stream=False ) print(response.choices[0].message.content)

2.2 Python 调用(Ollama 原生 Client)

from ollama import Client client = Client("http://localhost:11434") response = client.chat( model="qwen3.5:2b", messages=[{"role": "user", "content": "你叫什么名字?"}] ) print(response.message.content)

2.3 HTTP 接口测试

curl http://localhost:11434/api/generate -d '{ "model": "modelscope.cn/unsloth/DeepSeek-R1-Distill-Qwen-1.5B-GGUF", "prompt": "为什么天空是蓝色?", "stream": false }'

三、三大本地部署工具对比速览

维度OllamavLLMllama.cpp
核心定位开箱即用高性能推理服务极致轻量底层引擎
上手难度⭐ 极简⭐⭐⭐ 需配置环境⭐⭐⭐⭐⭐ 硬核编译调参
运行格式GGUFHuggingFace (Safetensors)GGUF
硬件依赖CPU / GPU 自动调度NVIDIA GPU (强依赖 CUDA)CPU / Apple Silicon / 低配GPU
并发能力弱 (单用户友好)极强(高并发服务)弱 (单线程)
适用场景个人开发、快速验证、本地 RAG企业级 API 服务、多卡并行推理边缘计算、旧电脑、树莓派

一句话选型建议

  • 普通用户/开发者Ollama(省心,专注应用)

  • 企业服务/N卡环境vLLM(吞吐量王者)

  • 低配硬件/嵌入式llama.cpp(CPU 也能跑)


四、彩蛋:模型输出自动发邮件

import smtplib from email.mime.text import MIMEText from ollama import chat res = chat(model="modelscope.cn/unsloth/DeepSeek-R1-Distill-Qwen-1.5B-GGUF:latest", messages=[{"role": "user", "content": "给你的朋友写一封信"}]) # SMTP 配置(示例为163邮箱) msg = MIMEText(res.message.content, 'plain', 'utf-8') msg["From"] = "your_email@163.com" msg["To"] = "receiver@qq.com" smtp = smtplib.SMTP() smtp.connect("smtp.163.com", 25) smtp.login("your_email@163.com", "授权码") smtp.sendmail(msg["From"], msg["To"], msg.as_string()) print("邮件发送成功")

本地部署大模型已非常成熟,Ollama + ModelScope 的组合能让开发者在几分钟内跑起主流模型。根据自身场景(开发/生产/边缘)选择合适工具,即可高效开启 AI 应用之旅。

http://www.jsqmd.com/news/673990/

相关文章:

  • WuliArt Qwen-Image Turbo部署案例:中小企业AI设计助手低成本GPU部署实践
  • Dify工业知识库性能压测实录:10万页PDF+2000+设备BOM结构,QPS 47.3仍稳如磐石
  • Claude Opus 4.7 API 接入指南:最强模型实测与中转配置教程(2026)
  • 警惕AI全自动攻击!Claude Opus成功构建Chrome漏洞武器化链路
  • 2025-2026年东南亚专线物流公司推荐:TOP5口碑服务评测对比知名工厂项目物流时效不稳 - 品牌推荐
  • 5大核心优势:NVMe设备全生命周期管理工具深度解析
  • Access练习题(5)
  • 2025-2026年头顶补发片品牌推荐:五大口碑产品评测对比顶尖产后脱发职场自信. - 品牌推荐
  • 快速体验CAM++:上传两段语音,秒级判断是否同一说话人
  • 【独家逆向分析】:解构 Dify v0.7.3 插件协议与 C# 14 AOT 运行时兼容性边界(附 ILTrim 规则白名单)
  • 打工人必备!OpenClaw 实现电脑自动化办公
  • 推荐系统实时更新策略
  • 算法工程师利器:PyTorch 2.8 镜像下的经典算法复现与优化
  • 2025-2026年东南亚专线物流公司推荐:五家顶尖服务评测对比领先跨境卖家库存周转慢 - 品牌推荐
  • 2026年最新山东金属氟碳漆实力厂商深度评估与选型指南 - 2026年企业推荐榜
  • Keil MDK-ARM编译报错‘A Label was found which was in no AREA’?手把手教你写对INCBIN汇编文件
  • 【C# 14原生AOT实战权威指南】:手把手部署Dify客户端,绕过JIT陷阱、体积直降72%、启动快至83ms!
  • 实测5款AI论文写作工具:好写作AI的“思维健身房”到底强在哪?
  • 2026年当下,文安县家长如何为孩子选择靠谱的志愿填报服务? - 2026年企业推荐榜
  • Redis 慢查询日志分析与性能调优
  • 白宫拟开放Claude漏洞挖掘AI,军方禁令与民用部署冲突激化
  • vLLM部署GLM-4-9B-Chat-1M常见问题解决
  • Highcharts 测量图:全面解析与优化实践
  • 海思3516a OSD水印进阶:动态更新、多区域叠加与性能优化心得
  • 【Dify文档解析黄金配置清单】:基于237个生产环境Case提炼的8类文档结构适配公式
  • PHP PDO:深入浅出数据库操作的艺术
  • 告别繁琐配置!在CentOS 7.8上快速搭建FreeRadius+AD认证服务器,5分钟搞定基础测试
  • 私有化视频会议系统/智能会议管理系统EasyDSS如何开启智能会议协作新时代
  • 如何创建仅在首次订阅时执行一次计算的懒加载 RxJS Observable
  • 算法暴政:开发者的道德困境——软件测试从业者的专业审视