ZeRO: Memory optimizations Toward Training Trillion Parameter Models

计算机科学 加速 并行计算 零(语言学) 计算 数据并行性 计算机工程 比例(比率) 吞吐量 平行性(语法) 算法 哲学 语言学 物理 量子力学 电信 无线
作者
Samyam Rajbhandari,Jeff Rasley,Olatunji Ruwase,Yuxiong He
标识
DOI:10.1109/sc41405.2020.00024
摘要

Large deep learning models offer significant accuracy gains, but training billions to trillions of parameters is challenging. Existing solutions such as data and model parallelisms exhibit fundamental limitations to fit these models into limited device memory, while obtaining computation, communication and development efficiency. We develop a novel solution, Zero Redundancy Optimizer (ZeRO), to optimize memory, vastly improving training speed while increasing the model size that can be efficiently trained. ZeRO eliminates memory redundancies in data- and model-parallel training while retaining low communication volume and high computational granularity, allowing us to scale the model size proportional to the number of devices with sustained high efficiency. Our analysis on memory requirements and communication volume demonstrates: ZeRO has the potential to scale beyond 1 Trillion parameters using today's hardware. We implement and evaluate ZeRO: it trains large models of over 100B parameter with super-linear speedup on 400 GPUs, achieving throughput of 15 Petaflops. This represents an 8x increase in model size and 10x increase in achievable performance over state-of-the-art. In terms of usability, ZeRO can train large models of up to 13B parameters (e.g., larger than Megatron GPT 8. 3B and T5 11B) without requiring model parallelism which is harder for scientists to apply. Last but not the least, researchers have used the system breakthroughs of ZeRO to create Turing-NLG, the world's largest language model at the time (17B parameters) with record breaking accuracy.

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
无限的思柔完成签到,获得积分20
刚刚
刚刚
1秒前
1秒前
1秒前
1秒前
bzlish发布了新的文献求助10
3秒前
sct发布了新的文献求助10
4秒前
超大杯冰摇红莓黑加仑茶完成签到,获得积分10
5秒前
冷傲的从雪完成签到 ,获得积分10
5秒前
5秒前
LL发布了新的文献求助10
6秒前
乐乐应助开心仙人掌采纳,获得20
6秒前
wangchong完成签到,获得积分10
6秒前
Pumpkin完成签到,获得积分10
6秒前
Rui_Rui完成签到,获得积分10
7秒前
量子星尘发布了新的文献求助10
7秒前
皮老八完成签到 ,获得积分10
8秒前
合适遥应助大力的惠采纳,获得30
8秒前
丘比特应助bzlish采纳,获得10
9秒前
9秒前
cc应助lu采纳,获得10
9秒前
wpk9904发布了新的文献求助10
10秒前
13秒前
精明人达发布了新的文献求助10
15秒前
16秒前
风趣的碧琴完成签到,获得积分10
16秒前
16秒前
16秒前
18秒前
完美世界应助Rui采纳,获得10
18秒前
CC发布了新的文献求助10
19秒前
小鸡快跑完成签到,获得积分10
20秒前
ccc发布了新的文献求助10
20秒前
21秒前
李健应助糟糕的铁锤采纳,获得10
21秒前
坦率雪枫发布了新的文献求助10
22秒前
22秒前
coco发布了新的文献求助10
24秒前
越听初发布了新的文献求助30
24秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Encyclopedia of Reproduction Third Edition 3000
Comprehensive Methanol Science Production, Applications, and Emerging Technologies 2000
化妆品原料学 1000
Psychology of Self-Regulation 800
1st Edition Sports Rehabilitation and Training Multidisciplinary Perspectives By Richard Moss, Adam Gledhill 600
Red Book: 2024–2027 Report of the Committee on Infectious Diseases 500
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5642531
求助须知:如何正确求助?哪些是违规求助? 4759094
关于积分的说明 15017959
捐赠科研通 4801089
什么是DOI,文献DOI怎么找? 2566399
邀请新用户注册赠送积分活动 1524484
关于科研通互助平台的介绍 1484011