Contextual Transformer Networks for Visual Recognition

计算机科学 变压器 人工智能 分割 卷积神经网络 模式识别(心理学) 计算机视觉 工程类 电气工程 电压
作者
Yehao Li,Ting Yao,Yingwei Pan,Tao Mei
出处
期刊:IEEE Transactions on Pattern Analysis and Machine Intelligence [Institute of Electrical and Electronics Engineers]
卷期号:45 (2): 1489-1500 被引量:294
标识
DOI:10.1109/tpami.2022.3164083
摘要

Transformer with self-attention has led to the revolutionizing of natural language processing field, and recently inspires the emergence of Transformer-style architecture design with competitive results in numerous computer vision tasks. Nevertheless, most of existing designs directly employ self-attention over a 2D feature map to obtain the attention matrix based on pairs of isolated queries and keys at each spatial location, but leave the rich contexts among neighbor keys under-exploited. In this work, we design a novel Transformer-style module, i.e., Contextual Transformer (CoT) block, for visual recognition. Such design fully capitalizes on the contextual information among input keys to guide the learning of dynamic attention matrix and thus strengthens the capacity of visual representation. Technically, CoT block first contextually encodes input keys via a 3×3 convolution, leading to a static contextual representation of inputs. We further concatenate the encoded keys with input queries to learn the dynamic multi-head attention matrix through two consecutive 1×1 convolutions. The learnt attention matrix is multiplied by input values to achieve the dynamic contextual representation of inputs. The fusion of the static and dynamic contextual representations are finally taken as outputs. Our CoT block is appealing in the view that it can readily replace each 3×3 convolution in ResNet architectures, yielding a Transformer-style backbone named as Contextual Transformer Networks (CoTNet). Through extensive experiments over a wide range of applications (e.g., image recognition, object detection, instance segmentation, and semantic segmentation), we validate the superiority of CoTNet as a stronger backbone. Source code is available at https://github.com/JDAI-CV/CoTNet.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
匆匆赶路人完成签到 ,获得积分10
刚刚
onevip完成签到,获得积分10
2秒前
yuminger完成签到 ,获得积分10
2秒前
沙子完成签到 ,获得积分0
21秒前
thangxtz完成签到,获得积分20
27秒前
28秒前
wp4455777完成签到,获得积分10
56秒前
summer完成签到 ,获得积分10
56秒前
虞无声发布了新的文献求助50
58秒前
来一斤这种鱼完成签到 ,获得积分10
58秒前
老才完成签到 ,获得积分10
1分钟前
棉花糖猫弦完成签到 ,获得积分10
1分钟前
zang完成签到 ,获得积分10
1分钟前
1分钟前
金生六完成签到 ,获得积分0
1分钟前
pluto应助CC采纳,获得10
1分钟前
雨相所至完成签到,获得积分10
1分钟前
cyskdsn完成签到 ,获得积分10
1分钟前
yi完成签到,获得积分10
1分钟前
pluto应助CC采纳,获得10
1分钟前
1分钟前
活泼的寒安完成签到 ,获得积分10
1分钟前
开放访天完成签到 ,获得积分10
1分钟前
犹豫的凡白完成签到 ,获得积分10
1分钟前
生言生语完成签到,获得积分10
2分钟前
虞无声发布了新的文献求助10
2分钟前
victory_liu完成签到,获得积分10
2分钟前
粗犷的沛容应助CC采纳,获得10
2分钟前
逢场作戱__完成签到 ,获得积分10
2分钟前
大意的晓亦完成签到 ,获得积分10
2分钟前
严冥幽完成签到 ,获得积分10
2分钟前
spring完成签到 ,获得积分0
2分钟前
SQL完成签到 ,获得积分10
2分钟前
贰鸟应助科研通管家采纳,获得20
2分钟前
贰鸟应助科研通管家采纳,获得20
2分钟前
design发布了新的文献求助10
3分钟前
kanong完成签到,获得积分0
3分钟前
3分钟前
wao完成签到 ,获得积分10
3分钟前
无辜的行云完成签到 ,获得积分0
3分钟前
高分求助中
中国国际图书贸易总公司40周年纪念文集: 史论集 2500
Sustainability in Tides Chemistry 2000
Дружба 友好报 (1957-1958) 1000
The Data Economy: Tools and Applications 1000
How to mix methods: A guide to sequential, convergent, and experimental research designs 700
Mantiden - Faszinierende Lauerjäger – Buch gebraucht kaufen 600
PraxisRatgeber Mantiden., faszinierende Lauerjäger. – Buch gebraucht kaufe 600
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3111635
求助须知:如何正确求助?哪些是违规求助? 2761766
关于积分的说明 7667203
捐赠科研通 2416791
什么是DOI,文献DOI怎么找? 1282892
科研通“疑难数据库(出版商)”最低求助积分说明 619187
版权声明 599499