[深度学习从入门到女装]Attention U

阅读: 评论:0

[深度学习从入门到女装]Attention U

[深度学习从入门到女装]Attention U

论文地址:Attention U-Net: Learning Where to Look for the Pancreas

 

这是一篇使用attention模块对U-Net进行改进,从而进行医学图像分割的论文

 

这个attention模块其实给我感觉特别像SENet里边对每个channel进行权重加权的模块,只不过这篇文章是对feature map中每个pixel进行加权,以达到突出显著特征的作用

 

改进后的U-Net如图所示

attention模块用在了skip connection上,原始U-Net只是单纯的把同层的下采样层的特征直接concate到上采样层中,改进后的使用attention模块对下采样层同层和上采样层上一层的特征图进行处理后再和上采样后的特征图进行concate

 

attention模块

F代表哪一层的channel数,通俗来看就是使用下采样层同层的特征图和上采样层上一层的特征图进行一个pixel权重图的构建,然后再把这个权重图对下采样层同层的特征图进行处理,得到进行权重加权的特征图

使用公式来表达就是:

 

下采样层同层的特征图,进行1*1*1卷积运算得到

上采样层上一层的特征图,进行1*1*1卷积运算得到

将上两步得到的特征图和进行相加后在进行ReLu得到(),为ReLU激活函数

随后在使用1*1*1卷积运算得到

最后对进行sigmoid激活函数得到最终的attention coeffficients()

 

梯度传导过程如下:

 

本文发布于:2024-02-01 07:31:25,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170674388534905.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:女装   深度   入门   Attention
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23