亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

ZeRO: Memory optimizations Toward Training Trillion Parameter Models

计算机科学 加速 并行计算 零(语言学) 计算 数据并行性 计算机工程 比例(比率) 吞吐量 平行性(语法) 算法 电信 物理 哲学 量子力学 无线 语言学
作者
Samyam Rajbhandari,Jeff Rasley,Olatunji Ruwase,Yuxiong He
标识
DOI:10.1109/sc41405.2020.00024
摘要

Large deep learning models offer significant accuracy gains, but training billions to trillions of parameters is challenging. Existing solutions such as data and model parallelisms exhibit fundamental limitations to fit these models into limited device memory, while obtaining computation, communication and development efficiency. We develop a novel solution, Zero Redundancy Optimizer (ZeRO), to optimize memory, vastly improving training speed while increasing the model size that can be efficiently trained. ZeRO eliminates memory redundancies in data- and model-parallel training while retaining low communication volume and high computational granularity, allowing us to scale the model size proportional to the number of devices with sustained high efficiency. Our analysis on memory requirements and communication volume demonstrates: ZeRO has the potential to scale beyond 1 Trillion parameters using today's hardware. We implement and evaluate ZeRO: it trains large models of over 100B parameter with super-linear speedup on 400 GPUs, achieving throughput of 15 Petaflops. This represents an 8x increase in model size and 10x increase in achievable performance over state-of-the-art. In terms of usability, ZeRO can train large models of up to 13B parameters (e.g., larger than Megatron GPT 8. 3B and T5 11B) without requiring model parallelism which is harder for scientists to apply. Last but not the least, researchers have used the system breakthroughs of ZeRO to create Turing-NLG, the world's largest language model at the time (17B parameters) with record breaking accuracy.

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
标致金毛发布了新的文献求助10
1秒前
123456完成签到,获得积分10
16秒前
喷火球发布了新的文献求助10
37秒前
瑞水南郡完成签到,获得积分10
48秒前
FashionBoy应助rose采纳,获得10
53秒前
57秒前
rose发布了新的文献求助10
1分钟前
1分钟前
Ee发布了新的文献求助10
1分钟前
1分钟前
JamesPei应助陈杰采纳,获得10
1分钟前
1分钟前
Suc发布了新的文献求助10
1分钟前
赘婿应助材料生采纳,获得10
1分钟前
香蕉觅云应助芳芳酱采纳,获得10
1分钟前
Suc关闭了Suc文献求助
1分钟前
拾英发布了新的文献求助10
1分钟前
1分钟前
芳芳酱发布了新的文献求助10
1分钟前
ding应助Hayat采纳,获得20
2分钟前
Owen应助拾英采纳,获得10
2分钟前
2分钟前
材料生发布了新的文献求助10
2分钟前
搜集达人应助材料生采纳,获得10
2分钟前
Zhy驳回了852应助
2分钟前
情怀应助苹果小玉采纳,获得10
2分钟前
wanci应助被杖杀的茯苓采纳,获得10
3分钟前
3分钟前
Thi发布了新的文献求助10
3分钟前
3分钟前
3分钟前
3分钟前
拾英发布了新的文献求助10
3分钟前
3分钟前
标致金毛发布了新的文献求助10
3分钟前
3分钟前
科研启动完成签到,获得积分10
3分钟前
4分钟前
4分钟前
Zhy发布了新的文献求助10
4分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
List of 1,091 Public Pension Profiles by Region 1621
Lloyd's Register of Shipping's Approach to the Control of Incidents of Brittle Fracture in Ship Structures 1000
Brittle fracture in welded ships 1000
A Guide to Genetic Counseling, 3rd Edition 500
Laryngeal Mask Anesthesia: Principles and Practice. 2nd ed 500
The Composition and Relative Chronology of Dynasties 16 and 17 in Egypt 500
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5568207
求助须知:如何正确求助?哪些是违规求助? 4652651
关于积分的说明 14701915
捐赠科研通 4594523
什么是DOI,文献DOI怎么找? 2521025
邀请新用户注册赠送积分活动 1492879
关于科研通互助平台的介绍 1463696