deconvolution讲解论文链接:https://arxiv.org/abs/1609.07009

关于conv和deconvoluton的另一个讲解链接:http://deeplearning.net/software/theano_versions/dev/tutorial/conv_arithmetic.html#transposed-convolution-arithmetic

参考博客:https://blog.csdn.net/itleaks/article/details/80336825

反卷积作为一种upsample的方式在图像分割等领域获得了很大的应用,一般地,反卷积分为“转置卷积”和“微步卷积”,不过两种本质其实是一样的,只是实现时稍微有点不同;

一、转置卷积(Transposed Convolution):

二、微步卷积(Fractionally Strided Convolution):

这块可以参考论文里的讲解,讲的很细很好;

 结论:“In conclusion, the deconvolution layer is the same as the convolution in LR with rd channel output where d is the spatial dimension of the data. ”,可参考下面这张图:

 

 当然作者也说了,使用LR的图像做卷积比使用HR的图像做卷积具有更好的表达效果,解释如下:

所以,有的时候使用deconvolution获得HR并不必要,作者在论文的最后也给我们留下了一些有趣的问题:

 

版权声明:本文为zf-blog原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/zf-blog/p/10100552.html