当前位置: 首页 > news >正文

基于龙蜥anolis在gpu上通过docker手动编译部署ollama

一、安装docker

yum install docker

二、下载docker镜像

docker pull registry.openanolis.cn/openanolis/anolisos:23.4

三、编写Docker file

vim Dockerfile

FROM registry.openanolis.cn/openanolis/anolisos:23.4 MAINTAINER wangchaodong<wang479961270@vip.qq.com> ARG ARCH=x86_64 ARG VERSION=v0.17.7 ENV CUDA_HOME=/usr/local/cuda ENV PATH=${CUDA_HOME}/bin:${PATH} ENV LD_LIBRARY_PATH=${CUDA_HOME}/lib64:${LD_LIBRARY_PATH} WORKDIR /opt/ RUN yum install gzip tar gcc which xz zstd wget kmod findutils pciutils go git g++ cmake -y && wget https://developer.download.nvidia.com/compute/cuda/12.8.0/local_installers/cuda_12.8.0_570.86.10_linux.run && mkdir /opt/tmp && chmod 600 /opt/tmp && bash cuda_12.8.0_570.86.10_linux.run -tmpdir /opt/tmp --silent --toolkit --no-man-page --no-drm --override && wget https://developer.download.nvidia.cn/compute/cudnn/redist/cudnn/linux-x86_64/cudnn-linux-x86_64-9.12.0.46_cuda12-archive.tar.xz && tar xf cudnn-linux-x86_64-9.12.0.46_cuda12-archive.tar.xz && cp cudnn-linux-x86_64-9.12.0.46_cuda12-archive/include/cudnn*.h /usr/local/cuda-12.8/include/. && cp cudnn-linux-x86_64-9.12.0.46_cuda12-archive/lib/libcudnn*.so* /usr/local/cuda-12.8/lib64/. && git clone https://gitee.com/wangchaodong/ollama.git -b ${VERSION} && cd /opt/ollama && export GOPROXY=https://goproxy.cn && cmake --preset 'CUDA 12' && cmake --build --parallel $(nproc) --preset 'CUDA 12' && cmake --install build --component CUDA --strip && mkdir -p /lib/ollama/ && cp -rf dist/lib/ollama/* /lib/ollama/. && cp -rf build/lib/ollama/* /lib/ollama/. && go build -trimpath -ldflags "-X github.com/ollama/ollama/version.Version=v0.17.7 -X github.com/ollama/ollama/server.mode=release" -o /bin/ollama . && yum remove wget go git g++ -y && yum clean all && rm -rf /opt/* EXPOSE 11434 ENV NVIDIA_DRIVER_CAPABILITIES=compute,utility ENV NVIDIA_VISIBLE_DEVICES=all ENV OLLAMA_HOST 0.0.0.0 ENTRYPOINT ["/bin/ollama"] CMD ["serve"]

四、生成ollama镜像

docker build -f Dockerfile -t cr.delcare.cn/gpu/ollama:v0.17.7 .

五、创建并运行ollama容器

docker run -itd --name ollama --privileged --gpus all cr.delcare.cn/gpu/ollama:v0.17.7

六、验证ollama服务是否正常运行

1)查看ip

docker inspect ollama|grep 172.17

2)curl 172.17.0.4:11434

3)查看日志(启动时使用gpu)

http://www.jsqmd.com/news/520905/

相关文章:

  • (实战避坑篇) PyTorch与PyTorch3D环境搭建:从版本匹配到一键部署
  • 基于YOLOv8/YOLOv10/YOLOv11/YOLOv12与SpringBoot的火箭检测系统(DeepSeek智能分析+web交互界面+前后端分离+YOLO数据)
  • OpenClaw+GLM-4.7-Flash私人教练:健康数据分析与运动计划生成
  • 告别手动录制!用rosbag2_bag_v2_plugins插件,5分钟搞定ROS1到ROS2的bag文件迁移
  • SqlSugar vs EF Core:在PostgreSQL项目中如何选择?性能对比与实战建议
  • 为什么GeoJSON.io是地理数据编辑的终极解决方案
  • FLUX小红书极致真实V2图像生成工具VSCode开发环境配置
  • 2026年度高清家用投影仪权威盘点:从行业趋势到终极选购指南
  • 原来HTML标签那么简单!小白也能看懂的前端第一课
  • Conda虚拟环境安装matplotlib报错?试试这个pip安装避坑指南(附版本选择建议)
  • 先验自感与经验自感:一个概念的双重显影
  • 嵌入式WAV播放器wave_player:轻量无依赖PCM音频方案
  • MiniCPM-o-4.5-nvidia-FlagOS能力边界测试:处理复杂计算机网络问题的逻辑推理
  • 打工人实测:这个 AI 工具让我准时下班的秘密
  • LightOnOCR-2-1B生产环境部署手册:ss监控+服务启停+日志排查全流程
  • OncePower 开源免费的文件和文件夹批量重命名工具中文绿色版
  • Hi-C与三维基因组:染色质互作图谱的构建、分析与拓扑结构域识别
  • HTML5标签全解析:前端必备指南
  • 结构光三维重建2——多频外差解包裹
  • 学习笔记1:基础概念
  • Simulink Simscape模型报错实战:解决‘Cannot reload workspace from non-existing data source file‘
  • 5款超实用的文本相似度检测工具横向评测(附详细使用教程)
  • Kazumi:3步打造你的个性化动漫追番神器
  • OPPO Reno6 Pro强解BL锁实战:MTK机型Root全流程(含降级指南)
  • 放飞炬人基金财政处批准 护卫基金、阶段预算性运转基金、高智能弹药基金、高智能武器基金、高智能武器装备基金、高智能设施控制基金 成立
  • 大文件上传GitHub失败解决
  • 自感概念的思想史:从“自我认同”到“先验自感”的艰难显影 ——兼论时空统一:源初与先验本是一回事
  • Windows应急响应实战:5个必知必会的netstat命令排查网络入侵
  • cv_unet_image-colorization多场景落地:高校校史馆、社区文化站、个人数字遗产
  • 数据科学入门避坑指南:从ETL到Hadoop的实战笔记整理