亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Lite Transformer with Long-Short Range Attention

变压器 计算机科学 机器翻译 语言模型 自动汇总 困惑 建筑 计算 人工智能 自然语言处理 计算机工程 语音识别 程序设计语言 电气工程 工程类 艺术 视觉艺术 电压
作者
Zhanghao Wu,Zhijian Liu,Ji Lin,Yujun Lin,Song Han
出处
期刊:Cornell University - arXiv 被引量:111
标识
DOI:10.48550/arxiv.2004.11886
摘要

Transformer has become ubiquitous in natural language processing (e.g., machine translation, question answering); however, it requires enormous amount of computations to achieve high performance, which makes it not suitable for mobile applications that are tightly constrained by the hardware resources and battery. In this paper, we present an efficient mobile NLP architecture, Lite Transformer to facilitate deploying mobile NLP applications on edge devices. The key primitive is the Long-Short Range Attention (LSRA), where one group of heads specializes in the local context modeling (by convolution) while another group specializes in the long-distance relationship modeling (by attention). Such specialization brings consistent improvement over the vanilla transformer on three well-established language tasks: machine translation, abstractive summarization, and language modeling. Under constrained resources (500M/100M MACs), Lite Transformer outperforms transformer on WMT'14 English-French by 1.2/1.7 BLEU, respectively. Lite Transformer reduces the computation of transformer base model by 2.5x with 0.3 BLEU score degradation. Combining with pruning and quantization, we further compressed the model size of Lite Transformer by 18.2x. For language modeling, Lite Transformer achieves 1.8 lower perplexity than the transformer at around 500M MACs. Notably, Lite Transformer outperforms the AutoML-based Evolved Transformer by 0.5 higher BLEU for the mobile NLP setting without the costly architecture search that requires more than 250 GPU years. Code has been made available at https://github.com/mit-han-lab/lite-transformer.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
11完成签到,获得积分20
6秒前
李雨芯完成签到,获得积分10
23秒前
大个应助李雨芯采纳,获得10
27秒前
30秒前
swwhite发布了新的文献求助10
32秒前
科研小白发布了新的文献求助10
37秒前
充电宝应助wucl1990采纳,获得10
37秒前
42秒前
wucl1990发布了新的文献求助10
48秒前
DrSong完成签到,获得积分10
49秒前
51秒前
科研通AI2S应助科研通管家采纳,获得10
53秒前
星辰大海应助科研通管家采纳,获得10
53秒前
53秒前
dahai发布了新的文献求助10
56秒前
ding应助科研小白采纳,获得10
59秒前
1分钟前
dahai完成签到,获得积分10
1分钟前
i好运发布了新的文献求助10
1分钟前
1分钟前
科研小白发布了新的文献求助10
1分钟前
传奇3应助i好运采纳,获得10
1分钟前
隐形曼青应助科研小白采纳,获得10
1分钟前
kingcoffee完成签到 ,获得积分10
1分钟前
黄沙漠完成签到 ,获得积分10
1分钟前
余念安完成签到 ,获得积分10
1分钟前
梦回应助长情黄蜂采纳,获得200
1分钟前
MY完成签到 ,获得积分10
1分钟前
1分钟前
i好运完成签到,获得积分20
1分钟前
Milesgao完成签到,获得积分10
1分钟前
健忘泽洋发布了新的文献求助20
1分钟前
压缩完成签到 ,获得积分10
1分钟前
1分钟前
1分钟前
科研小白发布了新的文献求助10
1分钟前
怕黑荠应助SHIROKO采纳,获得10
2分钟前
研友_VZG7GZ应助科研小白采纳,获得10
2分钟前
wlei完成签到,获得积分10
2分钟前
顾矜应助努力科研采纳,获得10
2分钟前
高分求助中
Continuum Thermodynamics and Material Modelling 3000
Production Logging: Theoretical and Interpretive Elements 2700
Mechanistic Modeling of Gas-Liquid Two-Phase Flow in Pipes 2500
Structural Load Modelling and Combination for Performance and Safety Evaluation 1000
Conference Record, IAS Annual Meeting 1977 610
電気学会論文誌D(産業応用部門誌), 141 巻, 11 号 510
Virulence Mechanisms of Plant-Pathogenic Bacteria 500
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 基因 遗传学 物理化学 催化作用 量子力学 光电子学 冶金
热门帖子
关注 科研通微信公众号,转发送积分 3561907
求助须知:如何正确求助?哪些是违规求助? 3135509
关于积分的说明 9412416
捐赠科研通 2835888
什么是DOI,文献DOI怎么找? 1558793
邀请新用户注册赠送积分活动 728452
科研通“疑难数据库(出版商)”最低求助积分说明 716865