This is an old revision of the document!
结构
* Backbone:DarkNet53 ⇒ CSPDarkNet53(相较于yoloV3)
* Neck:SPP,PAN
* Prediction:YOLOv3
YOLOV4的模型结构如下:
* SPP:能够极大地增加感受野,分离出最显著的上下文特征。 * PAN:有一个非常重要的特点就是特征的反复提取。
实现 * pytorch-实现YOLOV4代码 * keras-实现YOLOV4代码 * TensorflowV2-实现YOLOV4代码 * 官方YOLOV4代码
论文 * yoloV4论文
结构
* 输入端:Mosaic数据增强、自适应锚框计算、自适应图片缩放
* Backbone:Focus结构,CSP结构
* Neck:FPN+PAN结构
* Prediction:GIOU_Loss
* YoloV5提供四种模型Yolov5s、Yolov5m、Yolov5l、Yolov5x,其中s的速度最快,精准度最低;x的速度最慢,精准度最高;
YOLOV5的模型结构如下:
1).把每个输入图片划分成不同的网格(19*19,38*38,76*76),每个网格点负责一个区域的检测,只要物体中心落在这个区域,这个物体就由这个网格点来确定。 2).通过一系列特征提取卷积、残差卷积激活以及标准化,将特征划分为三种大小的特征。 3).通过Neck部分将三种大小的特征进行金字塔融合 4).最终对融合的三层数据进行卷积获得最终预测结果
实现 * YoloV5训练自己数据集详细教程
优点: * YOLO检测速度非常快。对于欠实时系统,在准确率保证的情况下,YOLO速度快于其他方法。 * YOLO 实时检测的平均精度是其他实时监测系统的两倍。 缺点: * 相比二阶段系列的网络识别定位误差较大 * YOLO对相互靠近的物体,以及很小的群体检测效果不好 YOLOV5相比于YOLOV4 * YOLO V4 在性能上优于YOLO V5,但是在灵活性与速度上弱于YOLO V5。由于YOLO V5仍然在快速更新(还未被官方认证,论文还未出) * 不仅易于配置环境,模型训练也非常快速,并且批处理推理产生实时结果 * YOLOV5s网络速度非常之快