=== yoloV4 === **结构** * **Backbone**:DarkNet53 => CSPDarkNet53(相较于yoloV3) * **Neck**:SPP,PAN * **Prediction**:YOLOv3 *YOLOV4的模型结构如下: {{:yolov4.png?600|}} *SPP:能够极大地增加感受野,分离出最显著的上下文特征。 *PAN:有一个非常重要的特点就是特征的反复提取。 **实现** *[[https://github.com/bubbliiiing/yolov4-pytorch|pytorch-实现YOLOV4代码]] *[[https://github.com/bubbliiiing/yolov4-keras|keras-实现YOLOV4代码]] *[[https://github.com/bubbliiiing/yolov4-tf2|TensorflowV2-实现YOLOV4代码]] *[[https://arxiv.org/pdf/2004.10934.pdf|官方YOLOV4代码]] ** 论文** *[[https://arxiv.org/pdf/2004.10934.pdf|yoloV4论文]] === yoloV5 === **结构** * **输入端**:Mosaic数据增强、自适应锚框计算、自适应图片缩放 * **Backbone**:Focus结构,CSP结构 * **Neck**:FPN+PAN结构 * **Prediction**:GIOU_Loss * YoloV5提供四种模型Yolov5s、Yolov5m、Yolov5l、Yolov5x,其中s的速度最快,精准度最低;x的速度最慢,精准度最高; * YOLOV5的模型结构如下 {{:yolov5.png?600|}} * 1).把每个输入图片划分成不同的网格(19*19,38*38,76*76),每个网格点负责一个区域的检测,只要物体中心落在这个区域,这个物体就由这个网格点来确定。 * 2).通过一系列特征提取卷积、残差卷积激活以及标准化,将特征划分为三种大小的特征。 * 3).通过Neck部分将三种大小的特征进行金字塔融合 * 4).最终对融合的三层数据进行卷积获得最终预测结果 **实现** * [[https://blog.csdn.net/qq_36756866/article/details/109111065|YoloV5训练自己数据集详细教程]] === yolo系列特点 === **优点:** * YOLO检测速度非常快。对于欠实时系统,在准确率保证的情况下,YOLO速度快于其他方法。 * YOLO 实时检测的平均精度是其他实时监测系统的两倍。 **缺点:** * 相比二阶段系列的网络识别定位误差较大 * YOLO对相互靠近的物体,以及很小的群体检测效果不好 **YOLOV5相比于YOLOV4** * YOLO V4 在性能上优于YOLO V5,但是在灵活性与速度上弱于YOLO V5。由于YOLO V5仍然在快速更新(还未被官方认证,论文还未出) * 不仅易于配置环境,模型训练也非常快速,并且批处理推理产生实时结果 * YOLOV5s网络速度非常之快