003 - 文章阅读笔记:位置注意力和通道注意力

本文最后更新于:3 个月前

参考:位置注意力和通道注意力机制 - CSDN - shu_0233 - 深度学习

[√] Position Attention Module


捕获特征图的任意两个位置之间的空间依赖,对于某个特定的特征,被所有位置上的特征加权和更新。权重为相应的两个位置之间的特征相似性。因此,任何两个现有相似特征的位置可以相互贡献提升,而不管它们之间的距离.。

img

alec:

  • 位置注意力计算的是特征图的任意两个位置之间的空间依赖
  • 位置注意力的计算过程和非局部注意力非常像
  • 特征图A(CHW)首先分别通过3个卷积层(BN和Relu)得到三个特征图{B,C,D},shape为(CHW),然后reshape为CN,其中N=HW,为像素的数量。
  • 矩阵C和B的转置相乘,在通过softmax得到spatial attention map S(N*N)
  • 矩阵D和S的转置相乘,reshape result到(CxHxW)再乘以尺度系数 α 再reshape为原来形状(CHW),最后与A相加得到最后的输出E

image-20230120235744112

[√] Channel Attention Module


alec:

  • 通道注意力CA是计算的两个通道之间的关系

img

  • 在Channel Attention Module中,分别对A做reshape(CN)和reshape与transpose(NC)
  • 将得到的两个特征图相乘再通过softmax得到channel attention map X(C×C)
  • X与A做乘积再乘以尺度系数β再reshape为原来形状(CHW),最后与A相加得到最后的输出E。

image-20230121000114485