Antkillerfarm Hacking V7.5

Deep Object Detection » 深度目标检测(九)——YOLOv5, YOLOX, YOLOv6, YOLOv7, YOLOv8

2020-12-18 :: 6773 Words

YOLOv4(续)

各部分的改进如下:

  • 输入端:这里指的创新主要是训练时对输入端的改进,主要包括Mosaic数据增强、cmBN、SAT自对抗训练。
  • BackBone主干网络:将各种新的方式结合起来,包括:CSPDarknet53、Mish激活函数、Dropblock。
  • Neck:目标检测网络在BackBone和最后的输出层之间往往会插入一些层,比如Yolov4中的SPP模块、FPN+PAN结构。
  • Prediction:输出层的锚框机制和Yolov3相同,主要改进的是训练时的损失函数CIOU_Loss,以及预测框筛选的nms变为DIOU_nms。

参考:

https://zhuanlan.zhihu.com/p/135909702

大神接棒,YOLOv4来了!

https://mp.weixin.qq.com/s/Ia1ZhAeTgt8anXVd4qxE3A

一张图梳理YOLOv4论文

https://mp.weixin.qq.com/s/ugx6CwMTqGR8CT5xpye6vw

对象检测YOLOv4版本来了!

https://mp.weixin.qq.com/s/XEPhK81Ms-wdDnoz5oPZgA

YOLO v4它来了:接棒者出现,速度效果双提升

https://mp.weixin.qq.com/s/Ny_4lK1E3bqz-LL-hHiFlg

YOLO项目复活!大神接过衣钵,YOLO之父隐退2月后,v4版正式发布,性能大幅提升

https://mp.weixin.qq.com/s/9SR5CUDIBmdJeYEWABASWA

YOLOv4的各种新实现、配置、测试、训练资源汇总

https://mp.weixin.qq.com/s/iGhYxBLdGHPydVi2FgkNtg

YOLO系列:V1,V2,V3,V4简介

https://mp.weixin.qq.com/s/E5TS0NuSWCWmxrJnN8AUKA

想读懂YOLOV4,你需要先了解下列技术(一)

https://mp.weixin.qq.com/s/5usz-wraHArK6_HcE4RuZw

想读懂YOLOV4,你需要先了解下列技术(二)

https://mp.weixin.qq.com/s/v2x3u3_FELz2lHqBJKR-dg

Yolov3和Yolov4核心内容、代码梳理

https://zhuanlan.zhihu.com/p/143747206

深入浅出Yolo系列之Yolov3&Yolov4&Yolov5&Yolox核心基础知识完整讲解

https://zhuanlan.zhihu.com/p/150127712

YOLO V4—网络结构解析

https://zhuanlan.zhihu.com/p/159209199

YOLO V4—损失函数解析

https://mp.weixin.qq.com/s/KRJ5e50NuACk2ZXi1Rxkxw

YOLOv4中的数据增强

YOLOv5

YOLOv5由Darknet的另一贡献者Ultralytics创建并维护(2020.5)。这是一家总部位于美国的粒子物理和人工智能初创公司。

代码:

https://github.com/ultralytics/yolov5

  • 输入端:Mosaic数据增强、自适应锚框计算、自适应图片缩放
  • Backbone:Focus结构,CSP结构
  • Neck:FPN+PAN结构
  • Prediction:GIOU_Loss

参考:

https://mp.weixin.qq.com/s/0tNVoD4H6fRGenUJXuJ8yg

YOLOv5来了!基于PyTorch,体积比YOLOv4小巧90%,速度却超2倍

https://zhuanlan.zhihu.com/p/161083602

一文读懂YOLO V5与YOLO V4

https://zhuanlan.zhihu.com/p/183261974

YOLO系列(从v1到v5)模型解读(上)

https://zhuanlan.zhihu.com/p/183781646

YOLO系列(从v1到v5)模型解读(中)

https://zhuanlan.zhihu.com/p/186014243

YOLO系列(从v1到v5)模型解读(下)

https://zhuanlan.zhihu.com/p/143747206

深入浅出Yolo系列之Yolov3&Yolov4&Yolov5核心基础知识完整讲解

https://zhuanlan.zhihu.com/p/136382095

YOLO系列:YOLOv1,YOLOv2,YOLOv3,YOLOv4,YOLOv5简介

https://mp.weixin.qq.com/s/rzR-rAiJejR8LjDDgiauZA

C++实现yolov5的OpenVINO部署

https://mp.weixin.qq.com/s/OP5iLZtIABNcn_LFyBWOeA

YOLObile:面向移动设备的“实时目标检测”算法

https://mp.weixin.qq.com/s/JQFWf-lFT4bwWEfQBoIdwQ

目标检测算法YOLOF:You Only Look One-level Feature

https://mp.weixin.qq.com/s/QRPQaxUvQwNTXhuOQezdqg

Yolo发展史(v4/v5的创新点汇总!)

YOLOX

YOLOX是旷视科技2021年的作品。

论文:

《YOLOX: Exceeding YOLO Series in 2021》

YOLOX改进点:

  • Decoupled Head结构。简单说,分类和回归两个任务的head不再共享参数。
  • Mosaic + MixUp的数据增强方法。不过需要注意:在训练的最后15个epoch,这两个数据增强会被关闭掉。
  • Anchor Free。基于中心点,预测网格左上角的两个偏移量,以及预测框的高度和宽度。
  • SimOTA样本匹配。

传统的YOLO系列都使用同一Head进行分类和回归。YOLOX则将分类和回归分支解耦。但由于出头的位置相当靠后,也没有RPN,所以还是One-stage模型。

参考:

https://www.zhihu.com/question/473350307

如何评价旷视开源的YOLOX,效果超过YOLOv5?

YOLOv6

YOLOv6是美团2022年的作品,并得到了YOLO官方的认可。

这里首先推荐一下:

https://mmyolo.readthedocs.io/

这个网站包含了YOLOv5以后各YOLO系列的资料,包括网络结构图。

YOLOv6的改进:

  • RepVGG style的Backbone。
  • 更简洁高效的Decoupled Head。

RepVGG

YOLOv6包括后面的YOLOv7、YOLOv8都采用了RepVGG style作为Backbone。因此这里我们先来讲一下什么是RepVGG。

论文:

《RepVGG: Making VGG-style ConvNets Great Again》

相比于各种多分支架构(如ResNet,Inception,DenseNet,各种NAS架构),近年来VGG式模型鲜有关注,主要是因为效果差。但是单路架构毕竟也有计算速度快,省内存的优点。

因此,一个很自然的想法就是:如何同时利用多分支模型训练时的优势(性能高)和单路模型推理时的好处(速度快、省内存)。

RepVGG采用了一种很巧妙的构造方法做到了这一点。

如上图所示3x3、1x1和bypass的分支,最终都被合并为一个计算出来的3x3 kernel。

当然,YOLOv6并没有直接使用RepVGG,而是使用了RepVGG style或者是RepVGG的思路。这种思路有时也叫做RepConv。

参考:

https://zhuanlan.zhihu.com/p/344324470

RepVGG:极简架构,SOTA性能,让VGG式模型再次伟大

参考

https://zhuanlan.zhihu.com/p/533127196

YOLOv6:又快又准的目标检测框架开源啦

https://zhuanlan.zhihu.com/p/566469003

YOLO内卷时期该如何选模型?

YOLOv7

YOLOv7是Alexey Bochkovskiy团队(YOLOv4团队)2022年的作品。

论文:

《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors》

YOLOv7的改进:

  • 扩展了高效长程注意力网络,称为Extended-ELAN(E-ELAN)。
  • auxiliary head。

参考:

https://www.zhihu.com/question/541985721

如何评价Alexey Bochkovskiy团队提出的YoloV7?

https://zhuanlan.zhihu.com/p/543743278

深入浅出Yolo系列之Yolov7基础网络结构详解

YOLOv8

YOLOv8是Ultralytics(YOLOv5团队)2023年的作品。

YOLOv8的改进:

  • 分类损失为VFL Loss,其回归损失为CIOU Loss+DFL(Distribution Focal Loss)。
  • TOOD的TaskAlignedAssigner。

https://zhuanlan.zhihu.com/p/598566644

YOLOv8深度详解

https://blog.csdn.net/qq_40716944/article/details/128609569

详细解读YOLOv8的改进模块

YOLOv9

YOLOv9是Ultralytics(YOLOv7团队)2024年的作品。

YOLOv9的改进:

  • 可编程梯度信息(PGI)
  • 广义高效层聚合网络(GELAN)

YOLOv10

YOLOv10是Ultralytics(YOLOv8团队)2024年的作品。

YOLOv10的改进:

  • PAN(路径聚合网络)层
  • 无需NMS

目标检测进阶

https://mp.weixin.qq.com/s/1nlOJ7X9ogBHTl1j2adqyg

83页《目标分类和目标检测综述(2D和3D数据)》论文

https://mp.weixin.qq.com/s/HmUhlw90b2aTsoEwBdYbdQ

目标检测二十年技术综述

https://mp.weixin.qq.com/s/cWCwcTA01oBy0BM3qRHb4Q

综述:目标检测二十年(2001-2021)

https://mp.weixin.qq.com/s/S1IrgEqS1Q4xqGl5adNrlg

目标检测近年综述

https://mp.weixin.qq.com/s/7QT7n9MpbXjo5-r-aY2Yvg

深度学习目标检测方法综述

https://mp.weixin.qq.com/s/0B08Mzn8ngL6GoNilrjsGA

基于深度学习目标检测方法一览

https://zhuanlan.zhihu.com/p/181169225

12篇论文看尽深度学习目标检测史

https://mp.weixin.qq.com/s/5I9uzGCNFD93L1mzakTl0Q

目标检测网络学习总结(RCNN–>YOLO V3)

https://mp.weixin.qq.com/s/8Vac8MRpmviVDKRrAeFR0A

后R-CNN时代,Faster R-CNN、SSD、YOLO各类变体统治下的目标检测综述:Faster R-CNN系列胜了吗?

https://mp.weixin.qq.com/s/zeruKQOye_QNWgluVIN0BA

从R-CNN到RFBNet,目标检测架构5年演进全盘点

https://mp.weixin.qq.com/s/sCGNUI-mUSYxD69uBDQNoQ

基于深度学习的目标检测算法综述:算法改进

https://mp.weixin.qq.com/s/yswy7VwEapQJ9M5n_Uo93w

目标检测最新进展总结与展望

https://mp.weixin.qq.com/s/s1qmCA8djEEanwCxeLSV2Q

63页《深度CNN-目标检测》综述

https://mp.weixin.qq.com/s/j-arl6qiD6mei4crfQPrgw

《深度学习显著目标检测综述》

https://mp.weixin.qq.com/s/2PLp2xNfhkHB3fPQr5Ts6g

密歇根大学40页《20年目标检测综述》最新论文,带你全面了解目标检测方法

https://mp.weixin.qq.com/s/Pl8HABuVN27CZv-lvGROTw

基于深度学习的目标检测算法近5年发展历史

https://mp.weixin.qq.com/s/S6sz5dPgGNcJvrIAZ3ZjGg

基于深度学习的通用物体检测算法对比探索

https://mp.weixin.qq.com/s/9BCf0rCp660a5xQ2JNz3AQ

深入理解one-stage目标检测算法(上篇)

https://mp.weixin.qq.com/s/p9XaI8PSG0o1NWlkmCIn7w

深入理解one-stage目标检测算法(下篇)

https://mp.weixin.qq.com/s/IRD0iIVXyENlUOyfSbmlBA

目标检测的渐进域自适应

https://mp.weixin.qq.com/s/10EhUj03NGPTnyOCvLqDQw

港大提出视频显著物体检测算法MGA,大幅提升分割精度

https://mp.weixin.qq.com/s/mqB9wtUjMJ1EhINrUUEf9Q

香港中文大学博士陈恺:物体检测中的训练样本采样

https://mp.weixin.qq.com/s/syoJTnh6KMMRUYPQjUnEAg

一个算法同时解决两大CV任务,让目标检测和实例分割互相帮助

https://mp.weixin.qq.com/s/ba5rQp4IVYbVbHq3Ef7mEg

深度学习检测小目标常用方法

https://mp.weixin.qq.com/s/q9qKVpjluzp8OS2GFpZC6g

张兆翔:基于深度学习的物体检测进展和趋势

https://zhuanlan.zhihu.com/p/102817180

目标检测比赛中的trick

https://mp.weixin.qq.com/s/ZQ6KlSFiKhcGVGoS9R_k4w

Anchor free的目标检测进阶版本

https://mp.weixin.qq.com/s/Aq2OJqGnT6z4zoG-6rslkQ

商汤科技提出新弱监督目标检测框架

https://zhuanlan.zhihu.com/p/82371629

Imbalance Problems in Object Detection: A Review

https://zhuanlan.zhihu.com/p/114700229

目标检测中的特征冲突与不对齐问题

https://blog.csdn.net/sanshibayuan/article/details/103642419

单阶段实例分割(Single Shot Instance Segmentation)

https://mp.weixin.qq.com/s/vpHrLu8kuEuOp5eehT8Hcw

目标检测正负样本区分策略和平衡策略总结(一)

https://mp.weixin.qq.com/s/kdD658xzC-JxuWGYqLRtcQ

性能达到SOTA的CSP对象检测网络

https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=2247486104&idx=1&sn=5580a4680f3190adb98638471e9b5982

百度视觉团队斩获 ECCV Google AI 目标检测竞赛冠军,获奖方案全解读

Fork me on GitHub