原文链接http://arxiv.org/abs/2004.10934

整体框架

      

Bag of Freebies(BoF) & Bag  of Specials (BoS)

  Bag of Freebies(BoF)  指那些能够提高精度而不增加推断时间的技术。比如数据增广的方法图像几何变换、CutOut、grid mask等,网络正则化的方法DropOut、DropBlock等,类别不平衡的处理方法、难例挖掘方法、损失函数的设计等。

  Bag  of Specials (BoS)是指那些增加稍许推断代价,但可以提高模型精度的方法,比如增大模型感受野的SPP、ASPP、RFB等,引入注意力机制Squeeze-and-Excitation (SE) 、Spatial Attention Module (SAM)等 ,特征集成方法SFAM , ASFF , BiFPN等,改进的激活函数Swish、Mish等,或者是后处理方法如soft NMS、DIoU NMS等。

Backbone: CSPDarknet53

source: CSPNet: A new backbone that can enhance learning capability of cnn论文;

CSPNet提出主要是为了解决三个问题: a.增强CNN的学习能力,能够在轻量化的同时保持准确性。

                  b.降低计算瓶颈。

                  c.降低内存成本。 

CSP 在 DenseNet的使用

Neck: SPP(Spatial pyramid pooling) 、PANet(Path Aggregation Network)

source: 

    SPP:Spatial pyramid pooling in deep convolutional networks for visual recognition。

       PANet: Path Aggregation Network for Instance Segmentation .(实力分割中提出)

PANet 网络框架

  关键:更好的利用特征融合 1.为了提高低层信息的利用率,加快低层信息的传播效率,提出了Bottom-up Path Augmentation; 2.通常FPN在多层进行选anchors时,根据anchors的大小,将其分配到对应的层上进行分层选取。这样做很高效,但同时也不能充分利用信息了,提出了Adaptive Feature Pooling。 3.为了提高mask的生成质量,将卷积-上采样和全连接层进行融合,提出了Fully-connected Fusion。

CutMix and Mosaic data augmentation, DropBlock regularization, Class label smoothing

source:

    CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features (开源)

Mixup:将随机的两张样本按比例混合,分类的结果按比例分配(个人看法:如果是使用一个随机数来控制权重,可能AP会增);

Cutout:随机的将样本中的部分区域cut掉,并且填充0像素值,分类的结果不变;

CutMix:就是将一部分区域cut掉但不填充0像素而是随机填充训练集中的其他数据的区域像素值,分类结果按一定的比例分配

Mosaic data augmentation:可以见论文给的示例图,提出了一种混合四幅训练图像的数据增强方法。

DropBlock regularization(来自知乎):

                                  各种Dropout 组合

Mish activation, Cross-stage partial connections (CSP), Multi- input weighted residual connections (MiWRC)

source:

    Mish: A Self Regularized Non-Monotonic Neural Activation Function论文(开源)

激活函数公式:Mish=x * tanh(ln(1+e^x))

  描述:x轴无边界(即正值可以达到任何高度)避免了由于封顶而导致的饱和。理论上对负值的轻微允许允许更好的梯度流,而不是像ReLU中那样的硬零边界。最后,平滑的激活函数允许更好的信息深入神经网络,从而得到更好的准确性和泛化。

 

Mish 激活函数的曲线

CSP、MiWRC 都是一种让网络更好训练的跳接方式。

CIoU-loss, CmBN

发展历程: IoU loss -> Giou loss -> Diou loss & Cious loss

主要依据:geometric factors:overlap area, central point distance and aspect ratio

IOU loss :依据交并比的loss, 不做介绍了。

Giou loss:

                                   GIOU核心算法

Diou loss

切入点:

第一:直接最小化预测框与目标框之间的归一化距离是否可行,以达到更快的收敛速度。

第二:如何使回归在与目标框有重叠甚至包含时更准确、更快。

 

 

 

R(B, Bgt)为预测框与真实框的惩罚项。

b, bgt分别为框的中心,P^2即两个点的欧式距离,c^2为包含两个框的最小框的对角线长度。

 

 

 

 Ciou loss 

在Diou loss 的基础上考虑了—— the consistency of aspect ratio   即公式中的 ν参数,α 为权衡参数。 

CmBN

 

CMBN示意图

Self-Adversarial Training (SAT)

  SAT 为一种新型数据增强方式。在第一阶段,神经网络改变原始图像而不是网络权值。通过这种方式,神经网络对其自身进行一种对抗式的攻击,改变原始图像,制造图像上没有目标的假象。在第二阶段,训练神经网络对修改后的图像进行正常的目标检测。

注意力机制——SAM、PAN 

所做改进: 将SAM从空间注意力机制修改为点上的注意力机制,并将PAN的相加模块改为级联。

读完结论

一系列堆料,结果建立在好的backbone 上面,好的backbone 再加入一系列训练提高方式, 必然长点。

 

版权声明:本文为E-Dreamer-Blogs原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/E-Dreamer-Blogs/p/12814665.html