CBAM
论文名称:CBAM: Convolutional Block Attention Module
作者:Sanghyun Woo, Jongchan Park, Joon-Young Lee, and In So Kweon,Korea Advanced Institute of Science and Technology, Daejeon, Korea
摘要
- CBAM(Convolutional Block Attention Module) 是一种简单有效的 前馈 卷积神经网络注意力模块。
- 该模块为混合域注意力机制从通道和空间两个方面依次推断 attention map。
- CBAM 是一个轻量级的通用模块,可以无缝集成到任何 CNN 中。
关键词: 物体识别,注意机制,门控卷积
介绍
- 卷积神经网络 (CNNs) 基于其丰富的表达能力显著提高了视觉任务的性能,目前的主要关注网络的三个重要因素:深度,宽度和基数(Cardinality)。
- 从 LeNet 到残差网络,网络变的更加深入,表达形式更加丰富;GoogLeNet 表明宽度是提高模型性能的另一个重要因素;Xception 和 ResNext 则通过增加网络的基数,在节省参数的同时,来获得比深度、宽度更强的表达能力(引用于 ResNext 论文)。
- 除了这些因素之外,本文考察了与网络结构设计不同的方面——注意力。
注意力机制
- 注意(attention)在人类感知中起着重要的作用。人类视觉系统的一个重要特性是,它不会试图一次性处理整个场景,而是利用一系列的局部一瞥(a sequence of partial glimpses)来获得对显著部分的关注。
- 近年来有一些尝试将注意力机制加入 CNN 中,如使用 Endcoder-Decoder 结构注意力模块的 Residual Attention Network,使用“Squeeze-Excitation“模块的 SEnet。
- 具体可见 注意力机制
CBAM
整体结构

-
CBAM 在混合域(通道域、空间域)上引入注意力机制,拥有更强的表达能力;
-
整个过程可以被概括为: