EDSR的根本出发点还是希望增加网络的深度(卷积层的层数)和宽度(卷积核的通道数)来提高计算的准确度。而其更多的可以看作是对SRResNet的改进,去掉其对应的多余计算(主要是指BN和Relu)。其具体的Residual Block结构如右(图中a表示最原始的结构,c表示经过改变后本文提出的结构)。由结构可以看出,在使用的时候去掉了BN层。由于BN层占用了和卷积一样的内存,去掉之后可以节约40%的内存消耗,这样在相同的计算资源下,就可以训练更深的网络结构。除此之外还去掉了残差之后的Relu层操作。通过掉这些不必要的操作,EDSR可以训练更深的网络结构获得更高的精确度。
BN是深度学习中一个重要的操作,为什么在分类的时候加入BN往往会存在较好的效果,而在低分辨率的时候需要去掉呢。主要由以下几方面的原因:
根据上述思想,其对应的结构为:
总共使用了32个Residual Block,256个特征通道数(每一层)来进行计算。上采样采用的是亚像素卷积(ESPCN的思想),并且对于4倍上采样是在2倍上采样的基础上进行的(所有较大的分辨率都是在较小的分辨率预训练好的模型上进行进一步训练得到的)。该策略可以提高大分辨率图片训练的速度。
由于该方法采用的结构过深,训练过程容易引起数值的不稳定性,为了解决这个问题,作者采用了redisual scaling的方式进行处理。即:在残差模块的最后一个卷积层的输出上乘以一个系数0.1,个人觉得应该是对于256个通道数取0.1的比例(25.6)来进行下一步计算。至于具体是不是这样还有待研究。
除了在结构上进行改进之外,该模型还根据LapSRN的思想采用了L1范数来计算对应的误差,这样也提高了模型的准确度。
MDSR是EDSR的多尺度模型,其出发点主要是为了解决一个可以完成多个不同比率的模型,关于该模型的结构如下
该模型的共享主网络使用了80个Residual Block,64个特征通道数(每一层),增加了特征提取时候的共享机制,考虑到了不同尺寸之间的相互作用。其上采样的过程和EDSR一样,损失函数也使用的是L1范数进行。最终取得了相当不错的效果。
本文发布于:2024-02-01 14:47:49,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170677006837360.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |