当前位置: 首页 > news >正文

Ollama 部署 Qwen3:0.6B 模型操作记录

1. 安装前准备

系统要求

  • 操作系统: Windows 10/11, macOS 或 Linux
  • 硬件要求:
    • CPU: 至少4核处理器
    • 内存: 8GB 或更高(推荐16GB)
    • 存储: 至少有5GB可用空间
    • GPU: 可选(NVIDIA显卡推荐使用CUDA驱动)

网络要求

  • 稳定的互联网连接(下载模型文件需要)
  • 可能需要配置代理(如有需要)

2. Ollama 安装步骤

  1. 下载Ollama:

    • 访问 Ollama官网下载页面
    • 选择适合您操作系统的版本下载
  2. 安装Ollama:

    • Windows: 双击下载的安装程序,按照向导完成安装
    • macOS: 拖动Ollama到Applications文件夹
    • Linux: 使用包管理器或运行下载的安装脚本
      图片
  3. 验证安装:

    ollama --version
    

    如果安装成功,将显示Ollama的版本信息
    图片
    image-20251117161844146

3. 下载和运行Qwen3:0.6B模型

命令行方式

ollama pull qwen3:0.6b
ollama run qwen3:0.6b

image-20251117162611871

GUI方式

  1. 打开Ollama应用
  2. 在模型库中选择"qwen3:0.6b"
  3. 点击"Download"按钮
  4. 下载完成后点击"Run"运行模型

模型存储位置

  • Windows: C:\Users\<用户名>\.ollama\models
  • macOS/Linux: ~/.ollama/models
    image-20251117161942253
    image-20251117164723128

4. 使用模型

命令行交互

ollama run qwen3:0.6b

键入问题后按Enter发送,输入/bye或按Ctrl+C退出
image-20251117162848767
image-20251117162955771

安装qwen3模型后,ollama界面里面也可以进行对话
PixPin_2025-11-17_16-31-28

Web接口

  1. 运行模型后,会启用http接口,可以使用浏览器访问 http://localhost:11434,如果已经运行,会提示Ollama is running

5. 整合到Cherry Studio

  1. 在Cherry Studio中添加本地模型:

    • 选择"Local Models" > "Add Model"
    • 配置端口为11434(Ollama默认端口)
    • 选择模型为qwen3:0.6b
      图片
      image-20251117165528430
      PixPin_2025-11-17_16-37-00
  2. 如果Ollama运行在其他机器上:

    • 确保防火墙允许11434端口的连接
    • 在Cherry Studio中使用http://<IP地址>:11434

6. 性能监控和优化

资源占用检查

  • Windows: 任务管理器 > 性能标签
  • macOS/Linux: 使用tophtop

进行对话的时候,CPU和GPU的占用,GPU是GTX-1066-6G,可以看到占用也不是很高。
image-20251117164018356

优化建议

  1. GPU加速:

    • 确保安装正确的GPU驱动
    • 对于NVIDIA显卡,安装CUDA工具包
    • 检查Ollama是否识别到GPU:
      ollama list
      
      查看是否有CUDA设备信息
  2. 批量处理:

    • 使用--num-ctx参数调整上下文长度(默认2048)
    ollama run qwen3:0.6b --num-ctx 4096
    

7. 常见问题排查

  1. 下载失败

    • 检查网络连接
    • 尝试使用代理:
      ollama pull qwen3:0.6b --proxy http://<代理地址>:<端口>
      
    • 检查存储空间是否足够
  2. 模型运行缓慢

    • 升级硬件配置(特别是GPU)
    • 减少上下文长度
    • 关闭其他占用资源的程序
  3. 模型无法加载

    • 检查模型是否完整下载:
      ollama list
      
    • 重新下载模型:
      ollama rm qwen3:0.6b
      ollama pull qwen3:0.6b
      

8. 进阶使用

自定义模型配置

  1. 创建Modelfile:
    FROM qwen3:0.6b
    PARAMETER temperature 0.7
    PARAMETER top_p 0.9
    
  2. 构建自定义模型:
    ollama create my-qwen -f Modelfile
    
  3. 运行自定义模型:
    ollama run my-qwen
    

API访问

Ollama提供REST API,可用于编程访问:

curl http://localhost:11434/api/generate -d '{"model": "qwen3:0.6b","prompt": "你好,你是谁?","stream": false
}'

9. 备份与迁移

  1. 备份模型:

    ollama pull qwen3:0.6b
    

    模型会自动存储在默认目录

  2. 迁移到其他机器:

    • 复制~/.ollama/models目录到新机器
    • 在新机器上安装Ollama
    • 运行:
      ollama run qwen3:0.6b
      
http://www.jsqmd.com/news/42858/

相关文章:

  • LiveGBS GB28181监控视频平台中如何配置文字文印或图片水印,将水印叠加到播放器或视频内容中
  • Linux 项目部署
  • curtime在MySQL触发器中的使用方法
  • Frida Hook Android手册
  • curtime与now函数在MySQL中的区别
  • Trick 总结
  • 2025年最新出炉:车载电源十大品牌性能排行榜,光伏电源/氢能源车载直流转换器/新能源车载直流转换器/高功率密度电源/军用电源产品排行
  • 成都恒利泰PIN-to-PIN 国产版 HT-LFCW-5500+
  • 身份认证状态的存储与传递( Spring Boot篇 )
  • 国标GB28181算法算力平台EasyGBS打造园区智能化安防监控高效解决方案
  • 20232306 2025-2026-1 《网络与系统攻防技术》实验六实验报告
  • 数据库基础(lab5:单表查询 三)
  • ubuntu18解决 libc.so.6: version `GLIBC_2.28‘ not found
  • current linux
  • curl linux 命令
  • 堆贪心
  • 聚焦广州少儿编程机构实力榜TOP5!课程/师资/赛事成果大公开,高性价比品牌全测评
  • 20232409 2025-2026-1 《网络与系统攻防技术》实验八实验报告
  • 2025年最受欢迎上门家教老师排行榜,上门家教/一对一家教老师口碑推荐榜
  • 是时候从 MySQL 转到 PostgreSQL 18 了
  • 小程序客服系统客服软件--如何接入ttkefu
  • count函数在oracle中的使用场景有哪些
  • Photoshop下载教程(附2025最新版安装步骤与完整图文讲解)
  • makefile入门3 目标自动生成与模式规则
  • 2025年不锈钢网带链板制造企业权威推荐榜单:不锈钢平顶链板/ 链板/304不锈钢链板源头厂家精选
  • 算法课 PA2 T1
  • 上海少儿编程哪家靠谱?高性价比机构综合测评,妙小程+4大优质机构,覆盖信奥赛与AI编程
  • OpenAI Responses API 的战略意图与技术架构:AI 智能体时代的技术范式变革
  • JDK17 ProcessBuilder执行脚本报错 error=13
  • 2025年高抗冲阻燃PC/ABS定制厂家权威推荐榜单:低灰分阻燃PC/ABS/ GB4943.1-2022阻燃PC/ABS/5G基站阻燃PC/ABS源头厂家精选