YOLOv8自定义对象检测、实例分割、目标跟踪从训练到部署
资料地址1:https://pan.baidu.com/s/1cXzJdM_KMTGCngYDWDOEwQ 提取码:6yd6
资料地址2:https://share.weiyun.com/Uep8Zo3k 密码:mztmis
YOLOv8自定义对象检测、实例分割、目标跟踪从训练到部署课程大纲:
章节1:YOLOv8介绍与安装环境测试
章节2:YOLOv8模型结构与源码详解
章节3:YOLOv8自定义对象检测
章节4:YOLOv8自定义实例分割-工业缺陷检测
章节5:YOLOv8自定义对象跟踪
章节6:YOLOv8模型推理部署
章节7:YOLOv8课程总结
源码+课件+数据
YOLOv8是YOLO系列模型的最新王者,各种指标全面超越现有对象检测与实例分割模型,借鉴了YOLOv5、YOLOv6、YOLOX等模型的设计优点,全面提升改进YOLOv5的模型结构基础上实现同时保持了YOLOv5工程化简洁易用的优势。
详解YOLOv8模型结构从Backone、Neck、Header、Loss层面全面对比YOLOv5,详解YOLOv8相比YOLOX、YOLOv5、YOLOv6的全面改进与创新。完成 YOLOv8自定义数据的对象检测,实例分割、自定义对象跟踪,YOLOv8在主流推理平台上部署包括 OpenVINO、TensorRT 、ONNXRUNTIME、OpenCV DNN上推理代码详解与演示。打通从模型结构理论到工程实践训练部署整个流程。彻底理解与玩转YOLOv8。
每个对象对应一行,每行依次保存了 class, x_center, y_center width height。框坐标必须采用 xywh 格式(归一化到 0–1)。如果您的框以像素为单位,请将 x_center 和 width 除以图像 width,将 y_center 和 height 除以图像 heigth。class 是从零进行索引的。下面我们将探索数据集中的一些示例图像。
# Checking the size of images and displaying them
import numpy as np
import cv2
# Image shape in Training
image = cv2.imread('/content/drive/MyDrive/datasets/mask_dataset/train/images/5e353e347af50726986e84c0.jpeg')
height = np.size(image, 0)
width = np.size(image, 1)
print ("shape of the training image {}, {}".format(height, width))
# Image shape in validation
image = cv2.imread('/content/drive/MyDrive/datasets/mask_dataset/valid/images/maksssksksss67.png')
height = np.size(image, 0)
width = np.size(image, 1)
print ("shape of the validation image {}, {}".format(height, width)
数据:
每个类的图像。建议每类≥ 1500 张图像
每个类的实例数。建议每个类≥ 10000 个实例(标记对象)
图像多样性。必须代表已部署的环境。对于现实世界的用例,我们建议使用一天中不同时间、不同季节、不同天气、不同照明、不同角度、不同来源(在线抓取、本地收集、不同相机)等的图像。
标签一致性。必须标记所有映像中所有类的所有实例。部分标记将不起作用。
标签准确性。标签必须紧紧包围每个对象。对象与其边界框之间不应存在空格。任何对象都不应缺少标签。
背景图像。背景图像是没有对象的图像,这些对象被添加到数据集以减少误报 (FP)。我们建议大约 0-10% 的背景图像来帮助降低 FP(COCO 有 1000 张背景图像供参考,占总数的 1%)。背景图像不需要标签。