亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

ScopeViT: Scale-Aware Vision Transformer

计算机科学 人工智能 计算机视觉 变压器 工程类 电气工程 电压
作者
Xuesong Nie,Haoyuan Jin,Yunfeng Yan,Xi Chen,Zhihang Zhu,Donglian Qi
出处
期刊:Pattern Recognition [Elsevier]
卷期号:153: 110470-110470 被引量:8
标识
DOI:10.1016/j.patcog.2024.110470
摘要

Multi-scale features are essential for various vision tasks, such as classification, detection, and segmentation. Although Vision Transformers (ViTs) show remarkable success in capturing global features within an image, how to leverage multi-scale features in Transformers is not well explored. This paper proposes a scale-aware vision Transformer called ScopeViT that efficiently captures multi-granularity representations. Two novel attention with lightweight computation are introduced: Multi-Scale Self-Attention (MSSA) and Global-Scale Dilated Attention (GSDA). MSSA embeds visual tokens with different receptive fields into distinct attention heads, allowing the model to perceive various scales across the network. GSDA enhances model understanding of the global context through token-dilation operation, which reduces the number of tokens involved in attention computations. This dual attention method enables ScopeViT to "see" various scales throughout the entire network and effectively learn inter-object relationships, reducing heavy quadratic computational complexity. Extensive experiments demonstrate that ScopeViT achieves competitive complexity/accuracy trade-offs compared to existing networks across a wide range of visual tasks. On the ImageNet-1K dataset, ScopeViT achieves a top-1 accuracy of 81.1%, using only 7.4M parameters and 2.0G FLOPs. Our approach outperforms Swin (ViT-based) by 1.9% accuracy while saving 42% of the parameters, outperforms MobileViTv2 (Hybrid-based) with a 0.7% accuracy gain while using 50% of the computations, and also beats ConvNeXt V2 (ConvNet-based) by 0.8% with fewer parameters. Our code is available on GitHub.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
az完成签到 ,获得积分10
1秒前
chaoshen发布了新的文献求助10
5秒前
7秒前
刻苦的念柏应助海派Hi采纳,获得10
10秒前
所所应助小s采纳,获得10
11秒前
12秒前
DD发布了新的文献求助10
12秒前
酷炫梦蕊完成签到,获得积分10
15秒前
隐形曼青应助酷炫梦蕊采纳,获得30
19秒前
大个应助吃点水果保护局采纳,获得10
21秒前
风吹而过完成签到 ,获得积分10
22秒前
23秒前
顺利八宝粥给顺利八宝粥的求助进行了留言
27秒前
lory完成签到,获得积分10
27秒前
28秒前
殷勤的凝海完成签到 ,获得积分10
31秒前
动听衬衫完成签到 ,获得积分10
32秒前
hhq完成签到 ,获得积分10
34秒前
风趣的刺猬完成签到,获得积分10
36秒前
Wxxxxx完成签到 ,获得积分10
38秒前
39秒前
在水一方应助万事屋采纳,获得10
39秒前
41秒前
43秒前
酷炫梦蕊发布了新的文献求助30
45秒前
大模型应助研友_V8Qmr8采纳,获得10
47秒前
张张发布了新的文献求助10
47秒前
49秒前
50秒前
年鱼精完成签到 ,获得积分10
50秒前
代沁完成签到,获得积分10
52秒前
53秒前
希望天下0贩的0应助张张采纳,获得10
54秒前
54秒前
1分钟前
小蘑菇应助33采纳,获得10
1分钟前
1分钟前
Hhhhh发布了新的文献求助10
1分钟前
1分钟前
ASD应助嘻嘻哈哈采纳,获得20
1分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
The Social Work Ethics Casebook: Cases and Commentary (revised 2nd ed.).. Frederic G. Reamer 1070
Introduction to Early Childhood Education 1000
2025-2031年中国兽用抗生素行业发展深度调研与未来趋势报告 1000
List of 1,091 Public Pension Profiles by Region 901
Item Response Theory 800
Identifying dimensions of interest to support learning in disengaged students: the MINE project 600
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 遗传学 催化作用 冶金 量子力学 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 5426257
求助须知:如何正确求助?哪些是违规求助? 4540096
关于积分的说明 14171580
捐赠科研通 4457859
什么是DOI,文献DOI怎么找? 2444698
邀请新用户注册赠送积分活动 1435666
关于科研通互助平台的介绍 1413164