FTRANS: Energy-Efficient Acceleration of Transformers using FPGA

计算机科学 现场可编程门阵列 变压器 计算 高效能源利用 并行计算 循环神经网络 计算机工程 硬件加速 门阵列 人工智能 人工神经网络 算法 计算机硬件 电压 工程类 电气工程
作者
Bingbing Li,Santosh Pandey,Haowen Fang,Yanjun Lyv,Ji Li,Jieyang Chen,Mimi Xie,Lipeng Wan,Hang Liu,Caiwen Ding
出处
期刊:Cornell University - arXiv 被引量:8
标识
DOI:10.48550/arxiv.2007.08563
摘要

In natural language processing (NLP), the "Transformer" architecture was proposed as the first transduction model replying entirely on self-attention mechanisms without using sequence-aligned recurrent neural networks (RNNs) or convolution, and it achieved significant improvements for sequence to sequence tasks. The introduced intensive computation and storage of these pre-trained language representations has impeded their popularity into computation and memory-constrained devices. The field-programmable gate array (FPGA) is widely used to accelerate deep learning algorithms for its high parallelism and low latency. However, the trained models are still too large to accommodate to an FPGA fabric. In this paper, we propose an efficient acceleration framework, Ftrans, for transformer-based large scale language representations. Our framework includes enhanced block-circulant matrix (BCM)-based weight representation to enable model compression on large-scale language representations at the algorithm level with few accuracy degradation, and an acceleration design at the architecture level. Experimental results show that our proposed framework significantly reduces the model size of NLP models by up to 16 times. Our FPGA design achieves 27.07x and 81x improvement in performance and energy efficiency compared to CPU, and up to 8.80x improvement in energy efficiency compared to GPU.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
champagne发布了新的文献求助10
1秒前
缥缈千风完成签到,获得积分10
1秒前
兴奋的凝丝完成签到,获得积分10
1秒前
SherWei完成签到,获得积分10
2秒前
量子星尘发布了新的文献求助10
2秒前
3秒前
FashionBoy应助木木夕云采纳,获得10
3秒前
3秒前
古月发布了新的文献求助10
4秒前
4秒前
5秒前
5秒前
英姑应助二零采纳,获得10
5秒前
zengyan发布了新的文献求助10
5秒前
wlls完成签到,获得积分10
6秒前
脑洞疼应助blingl采纳,获得30
6秒前
隐形曼青应助明玥采纳,获得10
7秒前
JamesPei应助秦q采纳,获得10
8秒前
8秒前
花椰菜完成签到,获得积分10
8秒前
ange完成签到,获得积分10
8秒前
桐桐应助liuxuying采纳,获得10
9秒前
9秒前
10秒前
lz发布了新的文献求助10
10秒前
花椰菜发布了新的文献求助10
11秒前
13秒前
14秒前
14秒前
siriuslee99完成签到,获得积分10
15秒前
无花果应助嗯哼采纳,获得10
16秒前
不想起昵称完成签到 ,获得积分10
17秒前
嘻嘻发布了新的文献求助10
17秒前
张醒醒完成签到,获得积分10
17秒前
18秒前
撑死的猫完成签到,获得积分20
18秒前
Hexagram发布了新的文献求助10
18秒前
木木夕云发布了新的文献求助10
19秒前
wgr发布了新的文献求助10
19秒前
Yangjin发布了新的文献求助10
20秒前
高分求助中
A new approach to the extrapolation of accelerated life test data 1000
Picture Books with Same-sex Parented Families: Unintentional Censorship 700
ACSM’s Guidelines for Exercise Testing and Prescription, 12th edition 500
Nucleophilic substitution in azasydnone-modified dinitroanisoles 500
不知道标题是什么 500
Indomethacinのヒトにおける経皮吸収 400
Effective Learning and Mental Wellbeing 400
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 3976058
求助须知:如何正确求助?哪些是违规求助? 3520294
关于积分的说明 11202245
捐赠科研通 3256804
什么是DOI,文献DOI怎么找? 1798471
邀请新用户注册赠送积分活动 877610
科研通“疑难数据库(出版商)”最低求助积分说明 806496