亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

A Neural Network Training Processor With 8-Bit Shared Exponent Bias Floating Point and Multiple-Way Fused Multiply-Add Trees

人工神经网络 计算机科学 浮点型 计算机工程 深层神经网络 推论 指数 点(几何) 人工智能 计算机硬件 算法 机器学习 并行计算 数学 语言学 哲学 几何学
作者
Jeongwoo Park,Sunwoo Lee,Dongsuk Jeon
出处
期刊:IEEE Journal of Solid-state Circuits [Institute of Electrical and Electronics Engineers]
卷期号:57 (3): 965-977 被引量:2
标识
DOI:10.1109/jssc.2021.3103603
摘要

Recent advances in deep neural networks (DNNs) and machine learning algorithms have induced the demand for services based on machine learning algorithms that require a large number of computations, and specialized hardware ranging from accelerators for data centers to on-device computing systems have been introduced. Low-precision math such as 8-bit integers have been used in neural networks for energy-efficient neural network inference, but training with low-precision numbers without performance degradation have remained to be a challenge. To overcome this challenge, this article presents an 8-bit floating-point neural network training processor for state-of-the-art non-sparse neural networks. As naïve 8-bit floating-point numbers are insufficient for training DNNs robustly, two additional methods are introduced to ensure high-performance DNN training. First, a novel numeric system which we dub as 8-bit floating point with shared exponent bias (FP8-SEB) is introduced. Moreover, multiple-way fused multiply-add (FMA) trees are used in FP8-SEB’s hardware implementation to ensure higher numerical precision and reduced energy. FP8-SEB format combined with multiple-way FMA trees is evaluated under various scenarios to show a trained-from-scratch performance that is close to or even surpasses that of current networks trained with full-precision (FP32). Our silicon-verified DNN training processor utilizes 24-way FMA trees implemented with FP8-SEB math and flexible 2-D routing schemes to show $2.48\times $ higher energy efficiency than prior low-power neural network training processors and $78.1\times $ lower energy than standard GPUs.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
rikii完成签到 ,获得积分10
1秒前
yema完成签到 ,获得积分10
1秒前
5秒前
wyg1994发布了新的文献求助10
11秒前
Cbp完成签到,获得积分10
15秒前
七熵完成签到 ,获得积分10
24秒前
医路通行完成签到,获得积分10
31秒前
36秒前
54秒前
marshyyy完成签到,获得积分10
55秒前
a7662888完成签到,获得积分0
1分钟前
三三完成签到 ,获得积分10
1分钟前
h3m完成签到 ,获得积分10
1分钟前
嵇元容完成签到 ,获得积分10
1分钟前
1分钟前
1分钟前
shenhai发布了新的文献求助10
1分钟前
额狐狸发布了新的文献求助10
1分钟前
科研通AI2S应助过时的起眸采纳,获得10
1分钟前
并肩完成签到 ,获得积分10
1分钟前
1分钟前
科研小白完成签到,获得积分10
1分钟前
1分钟前
彭于晏应助shenhai采纳,获得10
2分钟前
Bingtao_Lian完成签到 ,获得积分10
2分钟前
2分钟前
星落枝头发布了新的文献求助10
2分钟前
2分钟前
2分钟前
iwaking完成签到,获得积分10
2分钟前
朱朱子完成签到 ,获得积分10
2分钟前
兔子不秃头y完成签到 ,获得积分10
2分钟前
EmmaEmma完成签到,获得积分20
3分钟前
菜菜蔡儿完成签到 ,获得积分10
3分钟前
无问完成签到,获得积分10
3分钟前
不去明知山完成签到 ,获得积分10
3分钟前
王哈哈发布了新的文献求助10
3分钟前
3分钟前
shenhai发布了新的文献求助10
4分钟前
搜集达人应助王哈哈采纳,获得10
4分钟前
高分求助中
Sustainability in Tides Chemistry 2800
The Young builders of New china : the visit of the delegation of the WFDY to the Chinese People's Republic 1000
Rechtsphilosophie 1000
Bayesian Models of Cognition:Reverse Engineering the Mind 888
Le dégorgement réflexe des Acridiens 800
Defense against predation 800
Very-high-order BVD Schemes Using β-variable THINC Method 568
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3136993
求助须知:如何正确求助?哪些是违规求助? 2787960
关于积分的说明 7784062
捐赠科研通 2444016
什么是DOI,文献DOI怎么找? 1299609
科研通“疑难数据库(出版商)”最低求助积分说明 625497
版权声明 600989