亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

BViT: Broad Attention-Based Vision Transformer

计算机科学 变压器 人工智能 机器学习 模式识别(心理学) 计算机工程 工程类 电气工程 电压
作者
Nannan Li,Yaran Chen,Weifan Li,Zixiang Ding,Dongbin Zhao,Shuai Nie
出处
期刊:IEEE transactions on neural networks and learning systems [Institute of Electrical and Electronics Engineers]
卷期号:: 1-12 被引量:8
标识
DOI:10.1109/tnnls.2023.3264730
摘要

Recent works have demonstrated that transformer can achieve promising performance in computer vision, by exploiting the relationship among image patches with self-attention. They only consider the attention in a single feature layer, but ignore the complementarity of attention in different layers. In this article, we propose broad attention to improve the performance by incorporating the attention relationship of different layers for vision transformer (ViT), which is called BViT. The broad attention is implemented by broad connection and parameter-free attention. Broad connection of each transformer layer promotes the transmission and integration of information for BViT. Without introducing additional trainable parameters, parameter-free attention jointly focuses on the already available attention information in different layers for extracting useful information and building their relationship. Experiments on image classification tasks demonstrate that BViT delivers superior accuracy of 75.0%/81.6% top-1 accuracy on ImageNet with 5M/22M parameters. Moreover, we transfer BViT to downstream object recognition benchmarks to achieve 98.9% and 89.9% on CIFAR10 and CIFAR100, respectively, that exceed ViT with fewer parameters. For the generalization test, the broad attention in Swin Transformer, T2T-ViT and LVT also brings an improvement of more than 1%. To sum up, broad attention is promising to promote the performance of attention-based models. Code and pretrained models are available at https://github.com/DRL/BViT.

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
gy完成签到,获得积分10
12秒前
zz完成签到 ,获得积分10
22秒前
sidneyyang完成签到,获得积分10
30秒前
大模型应助科研通管家采纳,获得10
45秒前
Migue应助科研通管家采纳,获得10
45秒前
1分钟前
zhangxr发布了新的文献求助10
1分钟前
1分钟前
sidneyyang发布了新的文献求助10
1分钟前
2分钟前
Angelique发布了新的文献求助30
2分钟前
科研通AI2S应助科研通管家采纳,获得10
2分钟前
Migue应助科研通管家采纳,获得10
2分钟前
赘婿应助zhangxr采纳,获得10
3分钟前
4分钟前
核桃发布了新的文献求助10
4分钟前
5分钟前
zhangxr发布了新的文献求助10
5分钟前
小巧的怜晴完成签到 ,获得积分10
5分钟前
xie完成签到 ,获得积分10
6分钟前
传奇3应助zhangxr采纳,获得30
7分钟前
7分钟前
8分钟前
星辰大海应助YUYUYU采纳,获得10
8分钟前
MIO发布了新的文献求助30
8分钟前
MIO完成签到,获得积分10
8分钟前
8分钟前
zhangxr发布了新的文献求助30
8分钟前
思源应助科研通管家采纳,获得10
8分钟前
Migue应助科研通管家采纳,获得10
8分钟前
GHOU完成签到,获得积分10
8分钟前
zhangxr完成签到,获得积分10
8分钟前
Migue应助科研通管家采纳,获得10
10分钟前
拾柒完成签到 ,获得积分10
11分钟前
小宏完成签到,获得积分10
11分钟前
myyy完成签到 ,获得积分10
12分钟前
非洲大象完成签到,获得积分10
12分钟前
minusplus应助非洲大象采纳,获得50
12分钟前
Migue应助科研通管家采纳,获得10
12分钟前
13分钟前
高分求助中
Becoming: An Introduction to Jung's Concept of Individuation 600
Ore genesis in the Zambian Copperbelt with particular reference to the northern sector of the Chambishi basin 500
A new species of Coccus (Homoptera: Coccoidea) from Malawi 500
A new species of Velataspis (Hemiptera Coccoidea Diaspididae) from tea in Assam 500
PraxisRatgeber: Mantiden: Faszinierende Lauerjäger 500
Sarcolestes leedsi Lydekker, an ankylosaurian dinosaur from the Middle Jurassic of England 450
Die Gottesanbeterin: Mantis religiosa: 656 400
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3164806
求助须知:如何正确求助?哪些是违规求助? 2815907
关于积分的说明 7910512
捐赠科研通 2475484
什么是DOI,文献DOI怎么找? 1318185
科研通“疑难数据库(出版商)”最低求助积分说明 632028
版权声明 602282