in_tensor.shape)
out_tensor = c_se(in_tensor)
print("out shape:", out_tensor.shape)
sSE模块:
上图是空间注意力机制的实现...,与BAM中的实现确实有很大不同,实现过程变得很简单,具体分析如下:
直接对feature map使用1×1×1卷积, 从[C, H, W]变为[1, H, W]的features
然后使用sigmoid...进行激活得到spatial attention map
然后直接施加到原始feature map中,完成空间的信息校准
NOTE: 这里需要注意一点,先使用1×1×1卷积,后使用sigmoid函数,这个信息无法从图中直接获取...= self.Conv1x1(U) # U:[bs,c,h,w] to q:[bs,1,h,w]
q = self.norm(q)
return U * q # 广播机制...后记:接触这篇文章是在知乎一个分享kaggle图像分割竞赛的文章中,拖了很长时间才开始仔细阅读这篇文章,其带来的效果确实很不错,但是实验仅限于图像分割,各位可以尝试将其添加到图像分类,目标检测等领域,对该模块进行测评