ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks

失败 卷积神经网络 计算机科学 核(代数) 计算复杂性理论 频道(广播) 维数之咒 人工智能 计算 人工神经网络 还原(数学) 绩效改进 计算机工程 卷积(计算机科学) 模式识别(心理学) 机器学习 算法 并行计算 电信 数学 几何学 组合数学 运营管理 经济
作者
Qilong Wang,Banggu Wu,Pengfei Zhu,Peihua Li,Wangmeng Zuo,Qinghua Hu
出处
期刊:Cornell University - arXiv 被引量:3903
标识
DOI:10.1109/cvpr42600.2020.01155
摘要

Recently, channel attention mechanism has demonstrated to offer great potential in improving the performance of deep convolutional neural networks (CNNs). However, most existing methods dedicate to developing more sophisticated attention modules for achieving better performance, which inevitably increase model complexity. To overcome the paradox of performance and complexity trade-off, this paper proposes an Efficient Channel Attention (ECA) module, which only involves a handful of parameters while bringing clear performance gain. By dissecting the channel attention module in SENet, we empirically show avoiding dimensionality reduction is important for learning channel attention, and appropriate cross-channel interaction can preserve performance while significantly decreasing model complexity. Therefore, we propose a local cross-channel interaction strategy without dimensionality reduction, which can be efficiently implemented via 1D convolution. Furthermore, we develop a method to adaptively select kernel size of 1D convolution, determining coverage of local cross-channel interaction. The proposed ECA module is both efficient and effective, e.g., the parameters and computations of our modules against backbone of ResNet50 are 80 vs. 24.37M and 4.7e-4 GFlops vs. 3.86 GFlops, respectively, and the performance boost is more than 2% in terms of Top-1 accuracy. We extensively evaluate our ECA module on image classification, object detection and instance segmentation with backbones of ResNets and MobileNetV2. The experimental results show our module is more efficient while performing favorably against its counterparts.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
yyc完成签到,获得积分10
1秒前
Leo发布了新的文献求助10
2秒前
华清引完成签到,获得积分10
3秒前
sususu发布了新的文献求助10
3秒前
英勇绮南完成签到,获得积分10
3秒前
徐海清完成签到,获得积分10
3秒前
3秒前
3秒前
自信的远航完成签到 ,获得积分10
3秒前
Y191206完成签到,获得积分10
3秒前
文艺的平松完成签到,获得积分10
4秒前
4秒前
taowang完成签到,获得积分10
4秒前
橘涂发布了新的文献求助10
5秒前
依依完成签到,获得积分20
5秒前
6秒前
英姑应助自律采纳,获得10
6秒前
冰淇淋完成签到,获得积分10
7秒前
可爱的函函应助ZXY采纳,获得10
7秒前
lch23560应助一只生物狗采纳,获得30
7秒前
汉堡包应助聪明煎蛋采纳,获得10
8秒前
zzx完成签到,获得积分10
8秒前
111完成签到,获得积分20
8秒前
dsd发布了新的文献求助10
9秒前
小李要努力完成签到 ,获得积分10
9秒前
调皮尔容发布了新的文献求助10
10秒前
Leo完成签到,获得积分10
11秒前
杨冰发布了新的文献求助10
11秒前
研友_VZG7GZ应助小刺采纳,获得10
11秒前
畅快访蕊发布了新的文献求助10
11秒前
今后应助shamrock_2采纳,获得10
11秒前
完美世界应助超级的三问采纳,获得10
12秒前
hxyang完成签到,获得积分10
13秒前
13秒前
96完成签到,获得积分20
13秒前
两天浇一次水完成签到,获得积分10
13秒前
栗子完成签到 ,获得积分10
15秒前
西农梁家辉完成签到,获得积分10
15秒前
单眼皮大女孩完成签到,获得积分10
15秒前
16秒前
高分求助中
Rechtsphilosophie 1000
Bayesian Models of Cognition:Reverse Engineering the Mind 800
Essentials of thematic analysis 700
A Dissection Guide & Atlas to the Rabbit 600
Very-high-order BVD Schemes Using β-variable THINC Method 568
Внешняя политика КНР: о сущности внешнеполитического курса современного китайского руководства 500
Revolution und Konterrevolution in China [by A. Losowsky] 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3122329
求助须知:如何正确求助?哪些是违规求助? 2772690
关于积分的说明 7714624
捐赠科研通 2428211
什么是DOI,文献DOI怎么找? 1289656
科研通“疑难数据库(出版商)”最低求助积分说明 621484
版权声明 600183