Rethinking Attention with Performers

Softmax函数 计算机科学 可扩展性 变压器 自编码 二次方程 先验概率 机器学习 人工智能 算法 理论计算机科学 模式识别(心理学) 数学 深度学习 贝叶斯概率 物理 几何学 量子力学 电压 数据库
作者
Krzysztof Choromański,Valerii Likhosherstov,D. Dohan,Xingyou Song,Andreea Gane,Tamás Sarlós,Peter Hawkins,Jared Davis,Afroz Mohiuddin,Łukasz Kaiser,David Belanger,Lucy J. Colwell,Adrian Weller
出处
期刊:Cornell University - arXiv 被引量:365
标识
DOI:10.48550/arxiv.2009.14794
摘要

We introduce Performers, Transformer architectures which can estimate regular (softmax) full-rank-attention Transformers with provable accuracy, but using only linear (as opposed to quadratic) space and time complexity, without relying on any priors such as sparsity or low-rankness. To approximate softmax attention-kernels, Performers use a novel Fast Attention Via positive Orthogonal Random features approach (FAVOR+), which may be of independent interest for scalable kernel methods. FAVOR+ can be also used to efficiently model kernelizable attention mechanisms beyond softmax. This representational power is crucial to accurately compare softmax with other kernels for the first time on large-scale tasks, beyond the reach of regular Transformers, and investigate optimal attention-kernels. Performers are linear architectures fully compatible with regular Transformers and with strong theoretical guarantees: unbiased or nearly-unbiased estimation of the attention matrix, uniform convergence and low estimation variance. We tested Performers on a rich set of tasks stretching from pixel-prediction through text models to protein sequence modeling. We demonstrate competitive results with other examined efficient sparse and dense attention methods, showcasing effectiveness of the novel attention-learning paradigm leveraged by Performers.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
1秒前
1秒前
等待的毛衣完成签到 ,获得积分10
3秒前
Ayanami发布了新的文献求助10
3秒前
麻薯完成签到,获得积分10
4秒前
4秒前
FashionBoy应助心灵美的雨安采纳,获得30
5秒前
6秒前
6秒前
充电宝应助厚礼蟹采纳,获得10
7秒前
清清完成签到,获得积分10
7秒前
7秒前
星辰大海应助张二狗采纳,获得30
7秒前
Akim应助qiuqiuallfree采纳,获得10
8秒前
10秒前
10秒前
TanFT发布了新的文献求助10
13秒前
缥缈剑愁发布了新的文献求助10
14秒前
小助应助等待的冥幽采纳,获得50
14秒前
14秒前
要减肥松鼠完成签到,获得积分10
14秒前
nnnnnn发布了新的文献求助10
14秒前
......发布了新的文献求助10
14秒前
15秒前
柒辞完成签到,获得积分10
16秒前
16秒前
16秒前
16秒前
18秒前
19秒前
77完成签到,获得积分10
19秒前
qiu完成签到,获得积分20
19秒前
19秒前
20秒前
36456657应助仁爱的映波采纳,获得10
20秒前
LDDLleor完成签到,获得积分10
20秒前
xuyan发布了新的文献求助10
21秒前
HJJHJH发布了新的文献求助10
22秒前
23秒前
23秒前
高分求助中
Production Logging: Theoretical and Interpretive Elements 2700
Conference Record, IAS Annual Meeting 1977 1050
Les Mantodea de Guyane Insecta, Polyneoptera 1000
England and the Discovery of America, 1481-1620 600
Teaching language in context (Third edition) by Derewianka, Beverly; Jones, Pauline 550
Oligonucleotide Synthesis: a Practical Approach 500
Plant–Pollinator Interactions: From Specialization to Generalization 400
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 基因 遗传学 物理化学 催化作用 量子力学 光电子学 冶金
热门帖子
关注 科研通微信公众号,转发送积分 3589882
求助须知:如何正确求助?哪些是违规求助? 3158252
关于积分的说明 9519275
捐赠科研通 2861240
什么是DOI,文献DOI怎么找? 1572327
邀请新用户注册赠送积分活动 737873
科研通“疑难数据库(出版商)”最低求助积分说明 722547