TARGETDROP: A TARGETED REGULARIZATION METHOD FOR CONVOLUTIONAL NEURAL NETWORKS
TARGETDROP: A TARGETED REGULARIZATION METHOD FOR CONVOLUTIONAL NEURAL NETWORKS
TARGETDROP: A TARGETED REGULARIZATION METHOD FOR CONVOLUTIONAL NEURAL NETWORKS
Dense Object Detection
一. 论文简介
笔者感觉有点水的文章,想着既然看了就做个小记录吧
主要做的贡献如下(可能之前有人已提出):
- 提出一个目标正则化模块
二. 模块详解
2.1 论文详解
- 文章的出发点?下图展示了三种DropOut的实际表现,第三种带有目标性
- TargetDropout
上面的图完全概括了这篇文章的核心,下面一步步说明:
- 假设 \(H\) 为当前 \(feature\ map\) , \(shape=[b,c,w,h]\)
- 对 \(w,h\) 轴进行均值操作,类似SE Attention模块的做法,参见论文公式(1),得到 \(v_c\)
- 再进行两个Full-Connect层操作,中间带两个激活函数-Relu+Sigmoid。得到 \(M\),参见论文公式(2)。这里的操作意义: 论文说是为了进一步获得通道之间的独立性。
- 先对 \(M\) 进行排序,然后选择 \(Top-K\) ,选择数量又一个参数 \(\gamma\) 进行控制,比如 \(channel=5,\gamma=0.4,top-k=2\). 再将 \(M\) 进行二值化,属于 \(top-k\) 为设置为1,不属于设置为0,论文公式(3)所示。
- Mask的位置 \([b,c]\) 已经确定(B是batch不用管,C按照\(top-k\)),\([w,h]\) 位置按照最大值即可。Mask的大小:按照公式(4)进行(就是一个Kernel,设置大小即可),掩膜操作直接相乘(Mask区域为0,其它区域为1),按照公式(5)。最后进行归一化接口,按照公式(6)。
- 很简单的一个模块,就是加了一个排序操作,训练阶段有点费时,推理阶段这个模块不起作用(这一点还是比较好的,相当于辅助训练)。
# 代码略
# 感觉作用不大,不去尝试了
三. 参考文献
- 原始论文