【YOLOv11】015、YOLOv11模型部署:使用ONNX Runtime进行CPU/GPU推理
昨天深夜,隔壁组的同事跑过来问我:“模型在PyTorch里跑得好好的,导出ONNX后推理速度反而慢了,这正常吗?” 我看了眼他的代码,发现他直接把模型丢给ONNX Runtime,连最基本的session配置都没做。这问题太典型了,今天咱们就聊聊YOLOv11的ONNX Runtime部署,那些容易踩坑的细节。
从PyTorch到ONNX:别急着export
很多人拿到训练好的YOLOv11模型,第一反应就是直接torch.onnx.export。先等等,导出前得确保模型处于推理模式:
model.eval()# 这个不能忘model.to('cpu')# 导出时最好在CPU上#