当前位置: 首页 > news >正文

使用docker安装ollama及ollama拉取模型的总结

文章目录

  • 创建ollama容器
  • 查看ollama容器是否已UP
  • 进入容器内,拉取模型

创建ollama容器

docker run -d\--name ollama\--restart always\-p11434:11434\-v ollama:/root/.ollama\ollama/ollama

查看ollama容器是否已UP

[root@localserver models]# docker ps | grep ollama257d3ct479ee ollama/ollama"/bin/ollama serve"40minutes ago Up40minutes0.0.0.0:11434->11434/tcp, :::11434->11434/tcp ollama

进入容器内,拉取模型

#进入容器内dockerexec-it ollama /bin/bash#拉取模型(若没有此模型则会自动拉取),并以打开与模型的交互模型ollama run tinyllama:latest#拉取模型(不会自动进入和模型的交互模型)ollama pull tinyllama:latest

如下演示:

注意:ollama run tinyllama:latest 只是打开了一个和模型的交互式模式,并不是说启动了模型。


只要ollama serve进程服务还在运行,ollama pull 下来的模型,都会在被调用时按需加载指定的大模型,并提供服务,并不是像传统服务那样后台一直到在启用监听的模式。所以这里的大模型 没有启动或停止一说。

ollama pull 或 ollama run 时当模型不存在时都会主动去指定的官方仓库里下载模型,所以最好使用没有代理的网络,不然会出现各种奇奇怪怪的问题。

http://www.jsqmd.com/news/84399/

相关文章:

  • CATIA CAA RADE VS 二次开发环境部署 r18-r34全版本
  • 大白话Reactor模式
  • 37、Python实用示例大揭秘
  • 浏览器帧渲染流程理解
  • c++类和对象(上)
  • 38、Python编程:回调函数、包管理与系统操作全解析
  • 深度学习的进化之路:从感知机到通用智能的曙光
  • python装饰器
  • Oracle、PL\SQL安装配置
  • Part 01|在多个项目之后,我开始对“现成商城系统”产生怀疑
  • 目标检测系列之YOLOv4——速度与精度的平衡
  • 分布式训练知识
  • 第一章——办公自动化之邮件批量发送:高效沟通,一键搞定
  • B站的视频怎么下载到电脑?
  • Part 02|我为什么开始自己做一套商城系统
  • 《AI元人文构想:元协议、行为重塑与文明免疫系统》一篇技术或伦理的论述与一份关于智能时代文明如何存续与发展的奠基性宣言
  • CAIE认证:一次关于AI认知与思维升级的个人记录
  • 21.数据库连接池
  • 常见API(补充)
  • 《Python实战小课:数据分析场景——解锁数据洞察之力》导读
  • 34、Python 数据持久化与序列化:从简单到关系型的全面解析
  • 放过自己,也放过你的领导
  • Part 03|当客户真的要交付时,我最先考虑的不是技术
  • 设计模式复习1
  • 我对防抖(Debounce)的一点理解与实践:从基础到立即执行
  • [网鼎杯 2020 青龙组]AreUSerialz(个人记录写题笔记,含PHP反序列化的原理、漏洞成因以及利用技巧)
  • PINN学习(三)—— 发现方程问题的解决
  • 当AI成为同事:HR的“战斗力”正在被重新定义
  • 【安卓aosp】编译报错 killed 如果处理
  • Comsol Multiphysics数值模拟