亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Contextual Transformer Networks for Visual Recognition

计算机科学 变压器 人工智能 建筑 卷积神经网络 分割 模式识别(心理学) 人机交互 理论计算机科学 计算机视觉 工程类 艺术 电压 电气工程 视觉艺术
作者
Yehao Li,Ting Yao,Yingwei Pan,Tao Mei
出处
期刊:Cornell University - arXiv 被引量:44
标识
DOI:10.48550/arxiv.2107.12292
摘要

Transformer with self-attention has led to the revolutionizing of natural language processing field, and recently inspires the emergence of Transformer-style architecture design with competitive results in numerous computer vision tasks. Nevertheless, most of existing designs directly employ self-attention over a 2D feature map to obtain the attention matrix based on pairs of isolated queries and keys at each spatial location, but leave the rich contexts among neighbor keys under-exploited. In this work, we design a novel Transformer-style module, i.e., Contextual Transformer (CoT) block, for visual recognition. Such design fully capitalizes on the contextual information among input keys to guide the learning of dynamic attention matrix and thus strengthens the capacity of visual representation. Technically, CoT block first contextually encodes input keys via a $3\times3$ convolution, leading to a static contextual representation of inputs. We further concatenate the encoded keys with input queries to learn the dynamic multi-head attention matrix through two consecutive $1\times1$ convolutions. The learnt attention matrix is multiplied by input values to achieve the dynamic contextual representation of inputs. The fusion of the static and dynamic contextual representations are finally taken as outputs. Our CoT block is appealing in the view that it can readily replace each $3\times3$ convolution in ResNet architectures, yielding a Transformer-style backbone named as Contextual Transformer Networks (CoTNet). Through extensive experiments over a wide range of applications (e.g., image recognition, object detection and instance segmentation), we validate the superiority of CoTNet as a stronger backbone. Source code is available at \url{https://github.com/JDAI-CV/CoTNet}.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
13秒前
SciGPT应助Jenny采纳,获得10
23秒前
豆豆完成签到,获得积分10
26秒前
bzdjsmw完成签到 ,获得积分10
57秒前
1分钟前
RLLLLLLL完成签到 ,获得积分10
1分钟前
严珍珍完成签到 ,获得积分10
1分钟前
1分钟前
2分钟前
2分钟前
2分钟前
puzhongjiMiQ完成签到,获得积分10
2分钟前
科研通AI2S应助科研通管家采纳,获得10
2分钟前
3分钟前
3分钟前
3分钟前
3分钟前
高大厉完成签到 ,获得积分10
3分钟前
4分钟前
云缘之芒完成签到,获得积分10
4分钟前
科研通AI2S应助芝芝采纳,获得10
4分钟前
4分钟前
Jenny发布了新的文献求助10
4分钟前
英俊的铭应助云缘之芒采纳,获得10
4分钟前
情怀应助Jenny采纳,获得10
4分钟前
5分钟前
冬去春来完成签到 ,获得积分10
5分钟前
6分钟前
6分钟前
白华苍松发布了新的文献求助10
6分钟前
Ava应助sing采纳,获得10
6分钟前
6分钟前
6分钟前
6分钟前
sing发布了新的文献求助10
6分钟前
puzhongjiMiQ发布了新的文献求助10
6分钟前
6分钟前
英俊的铭应助科研通管家采纳,获得10
6分钟前
7分钟前
7分钟前
高分求助中
Production Logging: Theoretical and Interpretive Elements 2000
Very-high-order BVD Schemes Using β-variable THINC Method 1200
Mantiden: Faszinierende Lauerjäger Faszinierende Lauerjäger 1000
PraxisRatgeber: Mantiden: Faszinierende Lauerjäger 1000
中国荞麦品种志 1000
BIOLOGY OF NON-CHORDATES 1000
Autoregulatory progressive resistance exercise: linear versus a velocity-based flexible model 550
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 物理化学 催化作用 细胞生物学 免疫学 冶金
热门帖子
关注 科研通微信公众号,转发送积分 3360076
求助须知:如何正确求助?哪些是违规求助? 2982627
关于积分的说明 8704599
捐赠科研通 2664401
什么是DOI,文献DOI怎么找? 1459035
科研通“疑难数据库(出版商)”最低求助积分说明 675397
邀请新用户注册赠送积分活动 666421