亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

BViT: Broad Attention-Based Vision Transformer

计算机科学 变压器 人工智能 机器学习 模式识别(心理学) 计算机工程 工程类 电气工程 电压
作者
Nannan Li,Yaran Chen,Weifan Li,Zixiang Ding,Dongbin Zhao,Shuai Nie
出处
期刊:IEEE transactions on neural networks and learning systems [Institute of Electrical and Electronics Engineers]
卷期号:35 (9): 12772-12783 被引量:26
标识
DOI:10.1109/tnnls.2023.3264730
摘要

Recent works have demonstrated that transformer can achieve promising performance in computer vision, by exploiting the relationship among image patches with self-attention. They only consider the attention in a single feature layer, but ignore the complementarity of attention in different layers. In this article, we propose broad attention to improve the performance by incorporating the attention relationship of different layers for vision transformer (ViT), which is called BViT. The broad attention is implemented by broad connection and parameter-free attention. Broad connection of each transformer layer promotes the transmission and integration of information for BViT. Without introducing additional trainable parameters, parameter-free attention jointly focuses on the already available attention information in different layers for extracting useful information and building their relationship. Experiments on image classification tasks demonstrate that BViT delivers superior accuracy of 75.0%/81.6% top-1 accuracy on ImageNet with 5M/22M parameters. Moreover, we transfer BViT to downstream object recognition benchmarks to achieve 98.9% and 89.9% on CIFAR10 and CIFAR100, respectively, that exceed ViT with fewer parameters. For the generalization test, the broad attention in Swin Transformer, T2T-ViT and LVT also brings an improvement of more than 1%. To sum up, broad attention is promising to promote the performance of attention-based models. Code and pretrained models are available at https://github.com/DRL/BViT.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
ukmy完成签到,获得积分10
6秒前
9秒前
令尊是我犬子完成签到 ,获得积分10
10秒前
Alk完成签到 ,获得积分10
14秒前
小二郎应助科研通管家采纳,获得10
16秒前
科研通AI6.1应助ukmy采纳,获得10
20秒前
22秒前
22秒前
KurobaKaito发布了新的文献求助10
27秒前
缓慢怜菡给陈宇华的求助进行了留言
32秒前
orixero应助粉色棉毛裤采纳,获得80
34秒前
45秒前
49秒前
李健应助Jack采纳,获得10
49秒前
芝麻完成签到 ,获得积分10
52秒前
晨阳发布了新的文献求助10
55秒前
缓慢怜菡举报陈宇华求助涉嫌违规
57秒前
1分钟前
北欧森林完成签到,获得积分10
1分钟前
852应助喜悦雍采纳,获得10
1分钟前
Jack发布了新的文献求助10
1分钟前
英俊的铭应助Michelle采纳,获得10
1分钟前
Jasper应助粉色棉毛裤采纳,获得10
1分钟前
1分钟前
1分钟前
Michelle发布了新的文献求助10
1分钟前
1分钟前
youli完成签到 ,获得积分10
1分钟前
liuliu完成签到,获得积分10
1分钟前
1分钟前
Faria完成签到,获得积分20
1分钟前
1分钟前
1分钟前
1分钟前
CHN发布了新的文献求助10
2分钟前
2分钟前
catherine完成签到,获得积分10
2分钟前
陳.发布了新的文献求助10
2分钟前
Willow完成签到,获得积分10
2分钟前
有足量NaCl发布了新的文献求助10
2分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
PowerCascade: A Synthetic Dataset for Cascading Failure Analysis in Power Systems 2000
Metallurgy at high pressures and high temperatures 2000
The SAGE Dictionary of Qualitative Inquiry 610
Signals, Systems, and Signal Processing 610
An Introduction to Medicinal Chemistry 第六版习题答案 600
应急管理理论与实践 530
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6339719
求助须知:如何正确求助?哪些是违规求助? 8154971
关于积分的说明 17135331
捐赠科研通 5395338
什么是DOI,文献DOI怎么找? 2858764
邀请新用户注册赠送积分活动 1836556
关于科研通互助平台的介绍 1686787