当前位置: 首页 > news >正文

YOLO11镜像使用教程:SSH和Jupyter两种方式快速启动

YOLO11镜像使用教程:SSH和Jupyter两种方式快速启动

想快速上手YOLO11进行目标检测,但被繁琐的环境配置和复杂的命令行操作劝退?今天,我来带你体验一个更简单的方法——使用预置的YOLO11完整镜像。这个镜像已经打包好了所有依赖,让你能跳过环境搭建的坑,直接进入核心的开发与训练环节。

更重要的是,它提供了两种启动方式:SSHJupyter。无论你是习惯在终端里敲代码的“命令行高手”,还是偏爱在浏览器里点点划划的“可视化爱好者”,都能找到最适合自己的入口。接下来,我们就来看看如何用这两种方式,快速启动你的YOLO11项目。

1. 两种启动方式:总有一款适合你

这个YOLO11镜像最大的便利,就是提供了两种截然不同的工作环境。你可以根据自己当下的任务和习惯,灵活选择。

1.1 Jupyter方式:可视化交互,上手零门槛

如果你更喜欢在浏览器里写代码、看结果,那么Jupyter方式绝对是你的首选。它提供了一个基于网页的交互式笔记本环境,特别适合数据探索、模型调试和结果可视化。

启动与访问步骤:

  1. 启动镜像:在镜像管理页面,找到YOLO11镜像并启动它。
  2. 获取访问链接:镜像启动成功后,在实例详情页,你会看到一个“打开JupyterLab”或类似的按钮。点击它。
  3. 进入工作区:浏览器会自动打开一个新的标签页,这就是你的JupyterLab工作环境了。界面通常分为文件浏览器、代码编辑区和运行结果区,非常直观。

在JupyterLab里,你可以直接创建新的Python笔记本(.ipynb文件),在里面编写和运行YOLO11的训练、推理代码。代码块可以分段执行,中间结果(如图片、图表)会直接显示在笔记本中,调试和展示效果一流。

1.2 SSH方式:全功能终端,深度控制

如果你需要进行更复杂的文件操作、后台任务管理,或者就是单纯喜欢在终端里工作的掌控感,那么SSH方式是你的不二之选。它为你提供了一个完整的Linux Shell环境。

连接步骤:

  1. 启动镜像并获取连接信息:同样先启动镜像。在实例详情页,找到SSH连接信息,通常会提供主机IP(或域名)、端口号、用户名和密码
  2. 使用SSH客户端连接
    • Windows用户:可以使用PuTTY、Xshell,或者Windows 10/11自带的PowerShell或终端(输入ssh username@hostname -p port)。
    • Mac/Linux用户:直接打开终端,输入ssh username@hostname -p port即可。
  3. 输入密码:根据提示输入密码,即可成功登录到镜像的系统中。

登录后,你就拥有了一个完整的命令行环境。可以像操作本地服务器一样,使用cd,ls,vim,python等命令,自由地进行项目开发。

2. 进入项目与初体验

无论你通过哪种方式进入环境,第一件事都是找到YOLO11的项目目录。根据镜像文档的提示,项目位于ultralytics-8.3.9/目录下。

在Jupyter中:你可以在左侧的文件浏览器中直接导航到这个文件夹。在SSH终端中:使用cd命令切换目录。

cd ultralytics-8.3.9/

进入目录后,你可以先运行一个简单的命令来测试环境是否正常。例如,运行官方提供的训练脚本(这是一个示例,可能需要你准备好数据集和配置文件):

python train.py

如果环境配置正确,你会看到训练过程开始初始化,输出一些日志信息。这证明你的YOLO11环境已经准备就绪,可以开始真正的项目了。

3. 实战演练:构建一个人与车的检测器

光启动环境还不够,我们来实战一下,用这个镜像快速构建一个简单的目标检测模型,比如检测“人”和“车”。

3.1 准备你的数据集

任何机器学习项目都始于数据。你需要准备一些包含人和车的图片。

  1. 建立文件夹结构:在项目内创建一个清晰的数据集目录,例如resources/images/det/。在里面再分别创建train/images,train/labels,val/images,val/labels等子文件夹,用于存放训练集和验证集的图片及标签。
  2. 使用Labelme标注:这是一个非常流行的开源图像标注工具。你可以通过pip install labelme安装它。运行labelme打开界面,用矩形框工具在图片上框出每一个“人”或“车”,并为其打上正确的标签(personcar)。Labelme会将标注信息保存为JSON文件。
  3. 转换标签格式:YOLO系列模型通常使用特定的TXT格式标签(每行代表一个目标:class_id center_x center_y width height,均为归一化后的值)。你需要将Labelme的JSON格式转换成这种格式。可以写一个简单的Python脚本(tool_json2label_det.py)来自动化这个过程。
  4. 划分数据集:将标注好的图片和对应的TXT标签文件,按照一定比例(如8:2)分配到trainval文件夹中。同样,可以编写脚本(tool_det2datasets.py)来随机划分并整理好目录。

3.2 配置数据与模型

数据准备好后,需要告诉YOLO11你的数据在哪里,以及要检测哪些类别。

  1. 创建数据配置文件:新建一个YAML文件,比如resources/config/data/yolo11-det.yaml。内容大致如下:
path: ../ultralytics-yolo11/resources/images/det/datasets # 数据集根路径 train: train/images # 训练集图片路径(相对于path) val: val/images # 验证集图片路径(相对于path) # 类别名称和ID names: 0: person 1: car
  1. 选择或配置模型:YOLO11提供了多种规模的预训练模型(如n, s, m, l, x)。你可以直接加载官方的预训练权重进行微调。如果需要自定义网络结构,也可以参考官方模型配置文件(如yolo11n.yaml)创建自己的配置文件,主要修改其中的nc(类别数)参数为你这里的2。

3.3 编写训练脚本并开始训练

现在,可以编写训练脚本了。在Jupyter中新建一个笔记本,或在SSH环境下用vim创建一个Python文件,例如train_det.py

from ultralytics import YOLO, settings # 可选:设置运行和权重保存目录 settings.update({"runs_dir": "./runs", "weights_dir": "./weights"}) def main(): # 加载模型。这里以加载预训练的YOLO11n模型并微调为例 model = YOLO("yolo11n.pt") # 使用预训练权重 # 开始训练! results = model.train( data="resources/config/data/yolo11-det.yaml", # 你的数据配置 epochs=100, # 训练轮数 imgsz=640, # 输入图像尺寸 batch=16, # 批次大小(根据GPU内存调整) workers=4, # 数据加载线程数 project="my_det_project", # 项目名称 name="exp1", # 实验名称 resume=False, # 是否从上次检查点恢复 device=0 # 使用GPU 0,如果是CPU则设为'cpu' ) if __name__ == "__main__": main()

运行这个脚本,训练就开始了。你可以在终端或Jupyter中看到实时的训练日志,包括损失下降曲线、精度指标等。

3.4 使用训练好的模型进行推理

训练完成后,最好的模型权重通常会保存在runs/detect/my_det_project/exp1/weights/best.pt。现在,让我们用它来检测新图片。

创建一个推理脚本predict_det.py

from ultralytics import YOLO # 加载我们训练好的最佳模型 model = YOLO("runs/detect/my_det_project/exp1/weights/best.pt") # 对单张图片、一个文件夹下的所有图片或视频进行预测 results = model.predict( source="path/to/your/test_image.jpg", # 可以是图片路径、文件夹路径、视频路径或URL imgsz=640, # 推理尺寸 conf=0.25, # 置信度阈值 iou=0.45, # NMS的IoU阈值 save=True, # 保存带检测框的图片/视频 show=True, # 在屏幕上显示结果(如果环境支持) project="detect/predict", # 保存结果的目录 name="exp" ) # 你也可以遍历结果,获取更详细的信息 for result in results: boxes = result.boxes # 检测框信息 print(boxes)

运行脚本,你就能在detect/predict/exp目录下看到模型对输入图片的检测结果,人和车都被准确地框选了出来。

4. 总结

通过这个预置的YOLO11镜像,我们绕过了复杂的环境配置,直接通过SSH或Jupyter两种便捷方式进入了开发状态。从环境启动、数据准备、模型训练到最终推理,我们完成了一个完整的目标检测小项目。

两种启动方式的核心价值:

  • JupyterLab:强于探索、教学和可视化。适合一步步执行代码、即时查看图片和图表结果,学习、调试和演示的体验极佳。
  • SSH终端:强于控制、管理和自动化。适合进行文件操作、运行长时间训练任务、使用版本控制(git)以及执行复杂的Shell脚本。

无论选择哪种,这个镜像都为你提供了一个开箱即用、功能完整的YOLO11开发环境。接下来,你可以尝试更复杂的数据集、调整模型超参数、或者将训练好的模型集成到自己的应用中。目标检测的世界已经打开,剩下的就是你的创意和实践了。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

http://www.jsqmd.com/news/483008/

相关文章:

  • YOLO12快速部署指南:双服务模式(API+WebUI)开箱即用
  • Qwen2.5-VL-7B-Instruct多模态落地:制造业设备铭牌识别+参数结构化提取案例
  • 减少干扰,做好复盘
  • 保姆级教程:Nunchaku FLUX.1 CustomV3文生图实战,手把手教你调出高质量图片
  • 华为云OBS存储桶创建报错解决:如何正确指定区域(附完整代码示例)
  • fduthesis:复旦大学学位论文LaTeX排版模板——格式规范与高效写作的完美融合
  • CentOS7下用repotrack+createrepo搞定离线RPM安装(附避坑指南)
  • 科研复现神器:Python3.8镜像5步搭建独立实验环境
  • 第 178 场双周赛Q2:101005. 数对的最大公约数之和
  • ChatTTS克隆音色实战:如何高效构建个性化语音合成系统
  • Markdown Preview Enhanced:重新定义VS Code文档创作体验
  • MogFace模型Typora文档美化:将模型部署步骤与效果图写成优雅的技术文档
  • DAMOYOLO-S实战教程:将检测结果接入OpenCV二次开发流程
  • Airtest图像识别避坑指南:如何提高匹配精度避免误点击(附阈值调整技巧)
  • MedGemma 1.5效果展示:同一问题不同CoT路径对比——体现推理鲁棒性
  • SSD控制器探秘:从指令集到HMB,解锁高性能存储的底层逻辑
  • Phi-3-vision-128k-instruct真实案例:教育类APP中数学题截图→题干提取→分步解答生成
  • 霜儿-汉服-造相Z-Turbo功能体验:专为汉服人像优化的文生图模型实测
  • 霜儿-汉服-造相Z-Turbo开发环境配置:IntelliJ IDEA远程调试与GPU监控
  • 数据主权时代:如何用WeChatMsg掌控你的社交记忆
  • League Toolkit v1.3.3技术白皮书:重新定义英雄联盟辅助体验
  • Photon-GAMS光影包完全指南:解锁Minecraft电影级视觉体验的黑科技
  • SecGPT-14B一文详解:SecGPT-14B如何通过网络安全领域强化训练降低幻觉率
  • MacOS M2 环境下通过 Homebrew 高效安装与配置 Pandoc 以支持 Typora 文档转换
  • 【2026年最新600套毕设项目分享】springboot电子政务服务管理系统(14146)
  • 面向综合能源园区的三方市场主体非合作方法探索
  • 基于Lychee-Rerank的智能邮件分类系统:自动识别重要邮件
  • PROJECT MOGFACE开发者利器:集成Git进行模型版本管理与协作
  • K-means算法避坑指南:如何避免陷入局部最优解?
  • Arch Linux更新报错?手把手教你修复community.db下载失败问题(附最新pacman配置指南)