CA

编程入门 行业动态 更新时间:2024-10-28 02:28:02

<a href=https://www.elefans.com/category/jswz/34/1760605.html style=CA"/>

CA

Coordinate Attention for Efficient Mobile Network Design

创新点

  • 为轻型网络提出 CA(Coordinate Attention)注意力机制;
  • CA 注意力通过嵌入位置信息到通道注意力,避免在二维全局池化中位置信息的损失还可以使CA能够捕获长距离的依赖关系。

问题

  • SE(Squeeze-and-Excitation)注意力在编码过程中忽略了位置信息的重要性;
  • CBAM(CBAM: Convolutional Block Attention Module)中不能捕捉的长距离依赖关系。

方法

CA注意力如图所示。

Coordinate Information Embedding

将 CxHxW 形状的输入特征图逐通道进行平均池化,使用(H,1)和(1,W)的池化核分别按X和Y轴方向进行池化对每个通道进行编码,产生 CxHx1 和 Cx1xW 形状的特征图。

通过这种方式所产生的一对方法感知特征图可以使 CA 注意力能够在一个通道内捕获长距离的依赖关系,并且还有助于保留精确的位置信息,使网络能够更加准确的定位对象。

Coordinate Attention Generation

将上述所提取到的特征图按空间维度进行拼接,拼接成 C r \frac{C}{r} rC​x1x(W+H) 形状的特征图,其中 r 用于控制块的减小率和SE中的作用相同。

再将特征图经过F1卷积变换函数(1x1卷积)和非线性激活函数产生 f 中间特征图。

在将 f 按空间维度拆分成两个张量 fh 和 fw ,形状分别为 C r \frac{C}{r} rC​xH 和 C r \frac{C}{r} rC​xW,再分别进行 Fh 和 Fw 卷积变换函数(1x1卷积)和 Sigmoid 激活函数得到 gh 和 gw 坐标注意力。

最后将gh 和 gw 与原输入进行相乘得到与输入相同形状的输出。

更多推荐

CA

本文发布于:2024-02-11 17:44:34,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1682384.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:CA

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!