yolov8模型训练MOT20数据集 行人多目标跟踪计数数据集的训练及应用 如何根据mot20数据集 来实现行人目标识别,行人追踪,行人的计数

张开发
2026/4/21 7:06:20 15 分钟阅读

分享文章

yolov8模型训练MOT20数据集 行人多目标跟踪计数数据集的训练及应用 如何根据mot20数据集 来实现行人目标识别,行人追踪,行人的计数
yolov8模型训练MOT20数据集 行人多目标跟踪计数数据集的训练及应用 如何根据mot20数据集 来实现行人目标识别行人追踪行人的计数文章目录1. 数据准备与预处理2. 创建 data.yaml 文件3. 环境搭建4. 模型训练5. 推理与部署6. 性能评估7. 模型导出行人追踪与计数总结MOT20数据集 xml和txt格式标注可用于目标识别行人追踪行人计数等方面标签的数量为 person: 931282标签类别如下 [‘person’]训练视频 8931 帧带标签测试视频 4479 帧无标签。yolo可用1使用YOLOv8在MOT20数据集上进行目标识别、行人追踪和行人计数按照以下步骤操作数据准备与预处理、创建data.yaml文件、环境搭建、模型训练、推理与部署、性能评估以及模型导出。以下是详细的指南和代码示例。代码示例仅供参考学习。1. 数据准备与预处理首先确保数据集已经按照YOLO格式组织好。MOT20数据集提供了XML和TXT两种格式的标签但YOLO需要的是特定格式的TXT标签文件。需要将MOT20的标签转换为YOLO所需的格式每张图片对应一个TXT文件文件名与图片相同仅扩展名为.txt。每行代表一个对象格式如下class_id center_x center_y width height其中center_x,center_y,width, 和height都是相对于图像宽度和高度的比例值范围从0到1。假设已经有了正确的数据集结构mot20_dataset/ ├── images/ │ ├── train/ │ └── val/ └── labels/ ├── train/ └── val/2. 创建data.yaml文件在项目根目录下创建一个data.yaml文件用于定义数据集路径、类别数量及名称等信息。内容如下train:./mot20_dataset/images/trainval:./mot20_dataset/images/valnc:1# 类别数量names:[person]# 类别名称3. 环境搭建安装必要的依赖库特别是Ultralytics YOLOv8pipinstallultralytics opencv-python4. 模型训练加载YOLOv8并使用上面创建的data.yaml进行模型训练。下面是一个简单的Python脚本示例fromultralyticsimportYOLO# 加载YOLOv8模型可以选择不同尺寸如n (nano), s (small), m (medium), l (large), x (extra-large)modelYOLO(yolov8n.yaml)# 或者直接加载预训练模型例如 yolov8n.pt# 开始训练resultsmodel.train(datapath/to/data.yaml,epochs100,imgsz640,batch16)# 注意可以根据需要调整参数比如增加epoch数量、修改学习率等5. 推理与部署完成训练后可以使用模型对新的图像或视频流进行推理。这里提供了一个简单的例子演示如何对单张图像进行检测importcv2defdetect_person(image_path):# 读取图像imgcv2.imread(image_path)# 使用模型进行预测resultsmodel(img)# 返回的结果包含边界框、置信度等信息forresultinresults:boxesresult.boxes# 获取所有检测到的对象的边界框forboxinboxes:x1,y1,x2,y2,confidence,class_idbox.xyxy.tolist()[box.conf.item(),int(box.cls.item())]labelmodel.names[class_id]# 根据class_id获取类别名称print(fDetected{label}at ({x1},{y1}) - ({x2},{y2}), Confidence:{confidence})# 在原图上绘制边界框和标签cv2.rectangle(img,(int(x1),int(y1)),(int(x2),int(y2)),(0,255,0),2)cv2.putText(img,f{label}:{confidence:.2f},(int(x1),int(y1)-10),cv2.FONT_HERSHEY_SIMPLEX,0.9,(0,255,0),2)# 显示结果图像cv2.imshow(Person Detection,img)cv2.waitKey(0)cv2.destroyAllWindows()对于实时视频流比如无人机实时传输的视频可以对上述代码稍作修改以从摄像头或视频文件中读取帧并进行检测capcv2.VideoCapture(video.mp4)# 或者使用数字索引如0来捕获摄像头视频流whilecap.isOpened():ret,framecap.read()ifnotret:break# 使用模型进行预测resultsmodel(frame)forresultinresults:boxesresult.boxesforboxinboxes:x1,y1,x2,y2,confidence,class_idbox.xyxy.tolist()[box.conf.item(),int(box.cls.item())]labelmodel.names[class_id]# 绘制边界框和标签cv2.rectangle(frame,(int(x1),int(y1)),(int(x2),int(y2)),(0,255,0),2)cv2.putText(frame,f{label}:{confidence:.2f},(int(x1),int(y1)-10),cv2.FONT_HERSHEY_SIMPLEX,0.9,(0,255,0),2)# 显示帧cv2.imshow(Person Detection,frame)ifcv2.waitKey(1)0xFFord(q):breakcap.release()cv2.destroyAllWindows()6. 性能评估使用验证集评估模型性能yolotaskdetectmodevalmodelpath/to/best.ptdatapath/to/data.yaml它会输出 mAP、Precision、Recall 等指标。7. 模型导出如果你想将模型导出为其他格式如ONNX以便于部署在不同的环境中可以使用以下命令yoloexportmodelpath/to/best.ptformatonnx支持的格式包括onnx,engine(TensorRT),coreml,tflite,pb(tensorflow)等。行人追踪与计数对于行人追踪和计数你可以基于YOLO检测结果进一步实现。一个简单的方法是使用SORTSimple Online and Realtime Tracking算法结合YOLO的检测结果来进行追踪。此外通过记录每个轨迹的进入和离开屏幕区域的次数可以实现行人计数功能。总结以上指南展示了如何基于训练好的YOLOv8权重文件建立一个深度学习系统用于MOT20数据集的目标识别、行人追踪和行人计数。涵盖了数据准备与预处理、创建data.yaml配置文件、环境搭建、模型训练、推理与部署、性能评估以及模型导出等环节以上文字及代码仅供参考学习使用。

更多文章