已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

ConViT: improving vision transformers with soft convolutional inductive biases*

计算机科学 地点 归纳偏置 人工智能 卷积神经网络 变压器 机器学习 模式识别(心理学) 多任务学习 任务(项目管理) 管理 电压 经济 哲学 物理 量子力学 语言学
作者
Stéphane d’Ascoli,Hugo Touvron,Matthew L. Leavitt,Ari S. Morcos,Giulio Biroli,Levent Sagun
出处
期刊:Journal of Statistical Mechanics: Theory and Experiment [IOP Publishing]
卷期号:2022 (11): 114005-114005 被引量:395
标识
DOI:10.1088/1742-5468/ac9830
摘要

Abstract Convolutional architectures have proven to be extremely successful for vision tasks. Their hard inductive biases enable sample-efficient learning, but come at the cost of a potentially lower performance ceiling. Vision transformers rely on more flexible self-attention layers, and have recently outperformed CNNs for image classification. However, they require costly pre-training on large external datasets or distillation from pre-trained convolutional networks. In this paper, we ask the following question: is it possible to combine the strengths of these two architectures while avoiding their respective limitations? To this end, we introduce gated positional self-attention (GPSA), a form of positional self-attention which can be equipped with a ‘soft’ convolutional inductive bias. We initialize the GPSA layers to mimic the locality of convolutional layers, then give each attention head the freedom to escape locality by adjusting a gating parameter regulating the attention paid to position versus content information. The resulting convolutional-like ViT architecture, ConViT , outperforms the DeiT (Touvron et al 2020 arXiv: 2012.12877 ) on ImageNet, while offering a much improved sample efficiency. We further investigate the role of locality in learning by first quantifying how it is encouraged in vanilla self-attention layers, then analyzing how it has escaped in GPSA layers. We conclude by presenting various ablations to better understand the success of the ConViT. Our code and models are released publicly at https://github.com/facebookresearch/convit .

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
无花果应助陈思采纳,获得10
3秒前
徐rl完成签到 ,获得积分10
3秒前
3秒前
4秒前
8秒前
黄黄黄发布了新的文献求助10
10秒前
13秒前
fly完成签到,获得积分10
14秒前
15秒前
wanci应助早微采纳,获得10
17秒前
小川完成签到,获得积分10
17秒前
wd发布了新的文献求助10
18秒前
fly发布了新的文献求助10
19秒前
小张完成签到 ,获得积分10
19秒前
脱壳金蝉完成签到,获得积分10
20秒前
陈思发布了新的文献求助10
21秒前
Disguise发布了新的文献求助10
21秒前
24秒前
小二郎应助文俊伟采纳,获得10
26秒前
Crystal完成签到 ,获得积分10
26秒前
发发完成签到,获得积分10
26秒前
早微发布了新的文献求助10
27秒前
吉吉国王的跟班完成签到 ,获得积分10
28秒前
李倇仪完成签到 ,获得积分10
29秒前
科研通AI6.1应助cyy采纳,获得10
29秒前
捉鸭完成签到,获得积分10
30秒前
今后应助发电的皮卡丘采纳,获得10
30秒前
34秒前
宁过儿发布了新的文献求助20
34秒前
凡舍完成签到 ,获得积分10
34秒前
yzw发布了新的文献求助10
35秒前
39秒前
科研通AI6.1应助Disguise采纳,获得10
39秒前
知秋完成签到 ,获得积分10
39秒前
缘__发布了新的文献求助10
40秒前
40秒前
小二郎应助高贵焦采纳,获得10
45秒前
Atom完成签到,获得积分10
45秒前
cc321完成签到,获得积分10
47秒前
小月亮完成签到,获得积分10
47秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Introduction to strong mixing conditions volume 1-3 5000
Agyptische Geschichte der 21.30. Dynastie 3000
Aerospace Engineering Education During the First Century of Flight 2000
„Semitische Wissenschaften“? 1510
从k到英国情人 1500
sQUIZ your knowledge: Multiple progressive erythematous plaques and nodules in an elderly man 1000
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5772064
求助须知:如何正确求助?哪些是违规求助? 5595843
关于积分的说明 15429020
捐赠科研通 4905213
什么是DOI,文献DOI怎么找? 2639255
邀请新用户注册赠送积分活动 1587179
关于科研通互助平台的介绍 1542049