当前位置: 首页 > news >正文

[cmake]C++使用yolo26目标检测结合bytetrack实现目标追踪

【简介】

在C++中实现YOLO26的目标检测与ByteTrack的多目标追踪是一个相对复杂的过程,涉及到深度学习、计算机视觉和实时数据处理等多个领域。下面我将简单介绍这两个技术,并概述如何在C++中实现它们。

YOLO26(You Only Look Once,版本26)是一种实时目标检测算法,它通过在单个网络中同时预测所有目标的位置和类别来实现高效的目标检测。YOLO26在速度和精度之间取得了很好的平衡,使其成为许多实时应用的首选方法。

ByteTrack是一种多目标追踪算法,它结合了目标检测和目标追踪两个步骤。ByteTrack使用目标检测算法(如YOLOv8)来识别视频帧中的目标,并使用追踪算法来跟踪这些目标在连续帧之间的运动。ByteTrack通过关联相邻帧中的目标来实现多目标追踪,从而可以准确地跟踪多个目标的运动轨迹。

在C++中实现YOLO26和ByteTrack的结合,需要以下几个步骤:

  1. 加载YOLO26模型:首先,你需要加载预训练的YOLO26模型。这可以通过使用深度学习框架(如TensorFlow、PyTorch或ONNX Runtime)来实现。你需要将模型转换为C++可以理解的格式,并在程序中加载它。
  2. 处理视频帧:然后,你需要从视频文件中读取帧,或者从摄像头捕获实时帧。这些帧将被送入YOLO26模型进行目标检测。
  3. 执行目标检测:在加载模型后,你可以将每一帧送入模型进行目标检测。模型将返回每个检测到的目标的边界框和类别。
  4. 多目标追踪:接下来,你可以使用ByteTrack算法来追踪这些目标。ByteTrack将根据相邻帧中的目标位置和运动信息来关联目标,从而追踪它们的运动轨迹。
  5. 显示结果:最后,你可以将追踪结果可视化并显示在屏幕上。这可以通过在原始视频帧上绘制边界框和轨迹线来实现。

需要注意的是,实现这一过程需要一定的计算机视觉和深度学习基础,以及对C++编程的熟悉。此外,由于YOLO26和ByteTrack都是比较新的技术,因此可能需要使用较新的深度学习框架和库来支持。

总的来说,在C++中实现YOLO26和ByteTrack的多目标追踪是一个具有挑战性的任务,但它为实时目标检测和追踪提供了强大的工具。通过不断学习和实践,你可以逐渐掌握这些技术,并将其应用于各种实际应用中。

【效果展示】

【运行步骤】

需要提前准备好环境:
windows x64一台
vs2019或者vs2022
cmake==3.30.1
onnxruntime==1.20.1(GPU的话需要安装cuda和下载对应版本库)
opencv==4.9.0
vscode

第一步:首先安装好opencv4.9.0和onnxruntime1.20.1以及vs2019或者vs2022以及cmake=3.30.1
第二步:用vscode打开CMakeLists.txt修改opencv和onnxuntime路径
第三步:build生成exe,yolo26-onnxruntime-cplus\build\Release文件夹exe拷贝到yolo26-onnxruntime-cplus\data文件夹,替换源文件即可。
第四步:双击运行exe,即可查看效果

【调用代码】

#include <iostream> #include <opencv2/opencv.hpp> #include "Yolo26Manager.h" #include "cmdline.h" #include "ByteTrack/BYTETracker.h" #include "ByteTrack/Object.h" using namespace std; using namespace cv; Scalar get_color(int track_id) { int hue = track_id * 180 % 180; Mat hsv(1, 1, CV_8UC3, Scalar(hue, 255, 255)); Mat rgb; cvtColor(hsv, rgb, COLOR_HSV2BGR); return Scalar(rgb.at<Vec3b>(0, 0)[0], rgb.at<Vec3b>(0, 0)[1], rgb.at<Vec3b>(0, 0)[2]); } int main(int argc, char *argv[]) { const float confThreshold = 0.3f; const float iouThreshold = 0.4f; bool isGPU = false; const std::string modelPath = "yolo26n.onnx"; // Initialize the YOLO detector Yolo26Manager detector(modelPath, isGPU); std::cout << "Model was initialized." << std::endl; std::vector<Detection> result; cv::VideoCapture cap("car.mp4"); // Get video properties int img_w = static_cast<int>(cap.get(cv::CAP_PROP_FRAME_WIDTH)); int img_h = static_cast<int>(cap.get(cv::CAP_PROP_FRAME_HEIGHT)); int fps = static_cast<int>(cap.get(cv::CAP_PROP_FPS)); std::cout << "Video properties: " << img_w << "x" << img_h << ", " << fps << " FPS" << std::endl; long nFrame = static_cast<long>(cap.get(cv::CAP_PROP_FRAME_COUNT)); if (!cap.isOpened()) { std::cout << "open capture failured!" << std::endl; return -1; } Mat frame; byte_track::BYTETracker tracker(fps, 30); int num_frames = 0; int keyvalue = 0; int total_ms = 1; while (true) { cap.read(frame); if (frame.empty()) { std::cout << "read to end" << std::endl; break; } num_frames++; auto start = std::chrono::system_clock::now(); result.clear(); // Detect objects in the frame result = detector.Inference(frame); // Draw bounding boxes on the frame // detector.DrawImage(frame, result); // Uncomment for mask drawing std::vector<byte_track::Object> objects; for (const auto &det : result) { objects.emplace_back(byte_track::Rect<float>(det.bbox.x, det.bbox.y, det.bbox.width, det.bbox.height), det.class_id, det.confidence); } std::vector<std::shared_ptr<byte_track::STrack>> output_stracks = tracker.update(objects); auto end = chrono::system_clock::now(); total_ms = total_ms + static_cast<int>(std::chrono::duration_cast<chrono::microseconds>(end - start).count()); for (size_t i = 0; i < output_stracks.size(); i++) { const byte_track::Rect<float> &rect = output_stracks[i]->getRect(); bool vertical = rect.width() / rect.height() > 1.6f; if (rect.width() * rect.height() > 20.0f && !vertical) { Scalar s = get_color(static_cast<int>(output_stracks[i]->getTrackId())); putText(frame, format("objectid=%zu,trackid=%zu,conf=%.2f", output_stracks[i]->getObjId(), output_stracks[i]->getTrackId(), output_stracks[i]->getScore()), Point(static_cast<int>(rect.x()), static_cast<int>(rect.y() - 5)), 0, 0.6, Scalar(0, 0, 255), 2, LINE_AA); cv::rectangle(frame, cv::Rect(static_cast<int>(rect.x()), static_cast<int>(rect.y()), static_cast<int>(rect.width()), static_cast<int>(rect.height())), s, 2); } } cv::putText(frame, format("frame: %d fps: %d num: %zu", num_frames, num_frames * 1000000 / total_ms, output_stracks.size()), Point(0, 30), 0, 0.6, cv::Scalar(0, 0, 255), 2, cv::LINE_AA); cv::imshow("demo", frame); keyvalue = cv::waitKey(1); if (keyvalue == 113 || keyvalue == 81) { break; } } cap.release(); return 0; }
http://www.jsqmd.com/news/262210/

相关文章:

  • 基于数据挖掘的高考志愿推荐系统的设计与实现开题报告
  • 探讨齐齐哈尔衣柜橱柜定制生产商,哪家口碑比较好? - 工业品牌热点
  • Python OOP 设计思想 18:异步接口与协作
  • java-SSM348的线上导医院问询系统vue-springboot
  • 再见Navicat!
  • 2026必备!继续教育必用TOP8 AI论文软件深度测评
  • java-SSM349的校园招生录入宣传网-springboot
  • ChatGPT在测试用例生成中的应用:实现90%效率提升的技术实践
  • ‌2026趋势预测:AI将如何改变软件测试岗位?
  • java-SSM350的图书馆图书借阅管理系统x1x74-springboot
  • 如果AI测试工具会吐槽开发者:一个“智能”视角的血泪控诉
  • Sambert推理日志查看:错误排查与性能监控方法
  • java-SSM351的药品商超销售进销存管理系统vue-springboot
  • 从SLAM到Spatial AI,传统SLAMer该何去何从?
  • 当AI遇见DevOps:加速部署的隐藏技巧
  • GPT-OSS开源模型部署教程:WEBUI一键推理操作手册
  • java-SSM352的校园餐厅美食分享系统多商家-springboot
  • IEEE T-RO重磅 | 复杂三维环境的建图与理解,RAZER:零样本开放词汇3D重建的时空聚合框架
  • 自动对焦的原理:相机与镜头如何实现精准对焦
  • 具身智能与数字化展示:开启未来交互新纪元 - 指南
  • 测试人员的AI焦虑?数据告诉你职业前景光明
  • 2026-01-17-牛客刷题笔记-有趣的区间
  • ‌AI伦理在软件开发中的雷区:如何避免灾难性bug‌
  • GESP认证C++编程真题解析 | 202406 八级
  • RPC分布式通信(3)--RPC基础框架接口
  • 2026-01-17-LeetCode刷题笔记-3047-求交集区域内的最大正方形面积
  • 2025年广州市“人工智能+“典型案例集
  • 实用指南:零基础学AI大模型之Milvus DML实战
  • DeepSeek V4架构深度解析:梁文锋团队开辟的「存算分离」新范式
  • 2026年量子计算:算力革命与安全新范式报告