当前位置: 首页 > news >正文

YOLO26官方文档参考:GitHub仓库与README使用指南

YOLO26官方文档参考:GitHub仓库与README使用指南

最新 YOLO26 官方版训练与推理镜像
本镜像基于YOLO26 官方代码库构建,预装了完整的深度学习开发环境,集成了训练、推理及评估所需的所有依赖,开箱即用。

1. 镜像环境说明

该镜像为YOLO26的完整运行环境提供了无缝支持,省去繁琐的依赖安装过程。无论你是刚接触目标检测的新手,还是希望快速验证想法的研究者,这个镜像都能让你立刻进入核心工作阶段。

  • 核心框架:pytorch == 1.10.0
  • CUDA版本:12.1
  • Python版本:3.9.5
  • 主要依赖:torchvision==0.11.0,torchaudio==0.10.0,cudatoolkit=11.3,numpy,opencv-python,pandas,matplotlib,tqdm,seaborn等常用科学计算和视觉处理库均已预装。

所有组件都经过严格测试,确保兼容性和稳定性。你无需再担心“明明本地能跑,服务器报错”这类问题。整个环境以Conda管理,结构清晰,便于扩展自定义包。

2. 快速上手

启动镜像后,你会看到一个整洁的终端界面,代码已准备就绪,只等你开始操作。以下是完整的工作流引导,从环境激活到模型推理、训练再到结果下载,一步步带你完成全流程。

2.1 激活环境与切换工作目录

在使用前,请先激活名为yolo的 Conda 环境:

conda activate yolo

这一步非常重要,因为所有依赖项都安装在这个独立环境中。如果不激活,运行脚本时会提示模块找不到。

镜像默认将YOLO26源码放在/root/ultralytics-8.4.2目录下。为了防止系统盘空间不足或权限问题影响修改,建议将项目复制到数据盘进行操作:

cp -r /root/ultralytics-8.4.2 /root/workspace/

然后进入新目录:

cd /root/workspace/ultralytics-8.4.2

这样你就拥有了一个可自由编辑的工作副本。后续的所有操作(如修改配置、添加数据路径)都可以安全地在此目录下进行,不会影响原始文件。

2.2 模型推理

我们来做一个简单的图像推理测试,看看模型是否正常工作。

首先,创建或修改detect.py文件,内容如下:

# -*- coding: utf-8 -*- from ultralytics import YOLO if __name__ == '__main__': # 加载模型 model = YOLO(model=r'yolo26n-pose.pt') # 执行推理 model.predict( source=r'./ultralytics/assets/zidane.jpg', save=True, show=False )

这段代码做了三件事:

  1. 加载一个预训练的姿态估计模型yolo26n-pose.pt
  2. 对指定图片zidane.jpg进行推理
  3. 将结果保存为新图像(带标注框和关键点)

参数说明:

  • model:填写模型权重文件路径,可以是.pt.yaml文件
  • source:输入源,支持单张图片、视频文件,甚至摄像头(设为0即可调用)
  • save:设为True表示自动保存输出图像,默认保存在runs/detect/predict/路径下
  • show:是否实时显示窗口画面,远程服务器通常关闭此项(设为False

运行命令:

python detect.py

执行完成后,终端会打印出检测耗时、FPS等信息,同时生成带标注的结果图。你可以通过SFTP工具下载查看效果。

2.3 模型训练

接下来是自定义数据集训练流程。你需要准备好符合YOLO格式的数据集,并正确配置data.yaml

数据集配置

YOLO要求数据集按以下结构组织:

dataset/ ├── images/ │ ├── train/ │ └── val/ ├── labels/ │ ├── train/ │ └── val/ └── data.yaml

data.yaml内容示例:

train: ./dataset/images/train val: ./dataset/images/val nc: 80 names: ['person', 'bicycle', 'car', ...]

其中nc是类别数量,names是类名列表。请根据你的实际数据修改路径和类别。

训练脚本设置

创建train.py文件,内容如下:

import warnings warnings.filterwarnings('ignore') from ultralytics import YOLO if __name__ == '__main__': # 初始化模型结构 model = YOLO(model='/root/workspace/ultralytics-8.4.2/ultralytics/cfg/models/26/yolo26.yaml') # 加载预训练权重(可选) model.load('yolo26n.pt') # 若从零开始训练可注释此行 # 开始训练 model.train( data=r'data.yaml', imgsz=640, epochs=200, batch=128, workers=8, device='0', optimizer='SGD', close_mosaic=10, resume=False, project='runs/train', name='exp', single_cls=False, cache=False )

关键参数解释:

  • imgsz: 输入图像尺寸,640是常用值
  • batch: 批次大小,取决于显存容量
  • device='0': 使用第0号GPU
  • close_mosaic=10: 最后10个epoch关闭Mosaic增强,提升收敛稳定性
  • resume: 断点续训,若中途中断可设为True继续

运行训练:

python train.py

训练过程中,日志会实时输出loss、mAP等指标。每轮结束后会在runs/train/exp/weights/下保存best和last两个权重文件。

2.4 下载训练结果

训练完成后,模型权重和日志都保存在服务器上。要将其下载到本地,推荐使用Xftp这类SFTP工具。

操作方式非常直观:

  • 在右侧窗口找到你要下载的文件夹(如runs/train/exp
  • 直接拖拽到左侧本地目录即可开始传输
  • 单个文件也可以双击直接下载

对于大文件(如数据集或模型),建议先压缩再传输:

tar -czf exp.tar.gz runs/train/exp

这样可以显著减少传输时间。上传数据也是同样操作,只是方向相反——从本地拖到服务器。

3. 已包含权重文件

镜像内置了多个常用预训练模型,位于项目根目录,包括:

  • yolo26n.pt
  • yolo26s.pt
  • yolo26m.pt
  • yolo26l.pt
  • yolo26x.pt
  • yolo26n-pose.pt

这些模型覆盖了不同规模的需求,从小型轻量级部署到高精度场景均有对应选择。你可以直接加载它们进行推理或微调,无需额外下载。

如果你需要其他变体或最新版本,也可以通过model = YOLO('yolov8n.pt')自动在线拉取(需网络通畅)。

4. 常见问题

尽管镜像已经高度集成,但在实际使用中仍可能遇到一些常见问题,这里列出解决方案:

  • Q: 为什么运行时报错“ModuleNotFoundError”?
    A: 请确认是否执行了conda activate yolo。未激活环境会导致无法导入已安装的包。

  • Q: 如何更换数据集路径?
    A: 修改data.yaml中的trainval字段为绝对路径即可,例如/root/workspace/dataset/images/train

  • Q: 显存不足怎么办?
    A: 减小batch参数值,或降低imgsz到320或480。也可启用梯度累积(accumulate=2)模拟更大batch。

  • Q: 能否使用多GPU训练?
    A: 可以。将device='0,1'设置为多个GPU编号,框架会自动启用DDP分布式训练。

  • Q: 推理时如何调整置信度阈值?
    A: 在predict()方法中加入conf=0.5参数,数值越低保留的检测框越多。

5. 参考资料

本文档基于官方实现整理而成,更多高级功能和详细参数说明,建议查阅原始资源:

  • GitHub仓库: ultralytics/ultralytics
  • 官方文档: 项目中的README.md文件包含了API文档、模型列表、训练技巧和部署指南

获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

http://www.jsqmd.com/news/282953/

相关文章:

  • 企业稽查应对哪个更专业?2026年沈阳稽查应对公司推荐与排名,直击合规与成本痛点
  • fft npainting lama常见问题全解,让你少走弯路
  • /bin/bash /root/run.sh重启技巧:服务恢复实战
  • Qwen2.5极速对话机器人避坑指南:新手必看
  • 从虚拟机到树莓派,测试开机脚本通吃多场景
  • Llama3-8B编程语言支持?Python代码生成案例
  • 告别写作烦恼!Qwen3-4B-Instruct一键启动创作之旅
  • 电商客服AI实战:用gpt-oss-20b-WEBUI快速搭建系统
  • 3个高效部署镜像推荐:IQuest-Coder-V1指令模型开箱即用体验
  • 高效图像分割新姿势|SAM3大模型镜像支持英文Prompt快速推理
  • GPEN启动失败怎么办?run.sh脚本执行问题排查指南
  • cv_resnet18_ocr-detection实战案例:会议纪要扫描件识别流程
  • Qwen3-14B在金融场景应用案例:风险报告生成部署实战
  • 5分钟上手Emotion2Vec+语音情感识别,科哥镜像一键部署
  • SGLang部署遇瓶颈?CPU/GPU协同优化实战解决方案
  • 如何用Qwen2.5做代码生成?0.5B模型Python调用详细步骤
  • 2026年靠谱的日本旅行景点接送网友推荐榜
  • 自动驾驶实战:用PETRV2模型快速搭建BEV感知系统
  • 轻量级TTS方案新选择|Supertonic镜像在边缘设备的应用
  • Alpha蒙版单独保存!UNet高级功能详解
  • Qwen3-4B智能写作助手实战:创意内容生成系统搭建
  • 2026年靠谱的昆山定制网站多少钱?费用详解
  • 2026年口碑好的日本机场酒店接送服务当地人推荐榜
  • 踩坑实录:5张4090显卡为何跑不动Live Avatar?
  • HY-MT1.5-7B大模型实战|打造企业级VuePress自动翻译工作流
  • 零基础5分钟部署PyTorch-2.x-Universal-Dev-v1.0镜像,AI开发开箱即用
  • Paraformer-large适合中小企业吗?低成本部署实战验证
  • 零基础玩转中文语音合成:Sambert镜像保姆级教程
  • YOLOv9训练全过程演示,单卡64批轻松搞定
  • 33语互译+民族语言支持,HY-MT1.5-7B翻译模型落地全解析