PS+: A Simple yet Effective Framework for Fast Training on Parameter Server

计算机科学 简单(哲学) 计算 人工智能 超参数 仿形(计算机编程) 理论计算机科学 算法 程序设计语言 认识论 哲学
作者
A-Long Jin,Wenchao Xu,Song Guo,Bing Hu,Kwan L. Yeung
出处
期刊:IEEE Transactions on Parallel and Distributed Systems [Institute of Electrical and Electronics Engineers]
卷期号:33 (12): 4625-4637
标识
DOI:10.1109/tpds.2022.3200518
摘要

In distributed training, workers collaboratively refine the global model parameters by pushing their updates to the Parameter Server and pulling fresher parameters for the next iteration. This introduces high communication costs for training at scale, and incurs unproductive waiting time for workers. To minimize the waiting time, existing approaches overlap communication and computation for deep neural networks. Yet, these techniques not only require the layer-by-layer model structures, but also need significant efforts in runtime profiling and hyperparameter tuning. To make the overlapping optimization simple and generic , in this article, we propose a new Parameter Server framework. Our solution decouples the dependency between push and pull operations, and allows workers to eagerly pull the global parameters. This way, both push and pull operations can be easily overlapped with computations. Besides, the overlapping manner offers a different way to address the straggler problem, where the stale updates greatly retard the training process. In the new framework, with adequate information available to workers, they can explicitly modulate the learning rates for their updates. Thus, the global parameters can be less compromised by stale updates. We implement a prototype system in PyTorch and demonstrate its effectiveness on both CPU/GPU clusters. Experimental results show that our prototype saves up to 54% less time for each iteration and up to 37% fewer iterations for model convergence, achieving up to 2.86× speedup over widely-used synchronization schemes.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
LaTeXer应助Lzt采纳,获得50
刚刚
Michaelfall发布了新的文献求助10
2秒前
伶俐的雁蓉完成签到,获得积分10
3秒前
李爱国应助安详的惜梦采纳,获得10
3秒前
5秒前
ypzhu发布了新的文献求助10
5秒前
欧阳清渊发布了新的文献求助10
6秒前
Theprisoners应助贪玩星采纳,获得20
7秒前
9秒前
10秒前
冷静的胜完成签到,获得积分10
10秒前
Michaelfall完成签到,获得积分10
10秒前
zjt1111111完成签到,获得积分20
11秒前
萧萧萧完成签到,获得积分10
12秒前
道一发布了新的文献求助10
12秒前
大圣完成签到 ,获得积分10
14秒前
zjt1111111发布了新的文献求助10
14秒前
情怀应助钟鸿盛Domi采纳,获得10
15秒前
16秒前
17秒前
之_ZH完成签到 ,获得积分10
17秒前
19秒前
道一完成签到,获得积分10
22秒前
安详的惜梦完成签到,获得积分10
22秒前
SciGPT应助太阳花采纳,获得10
24秒前
科研通AI5应助杰瑞采纳,获得10
25秒前
石123发布了新的文献求助10
25秒前
MXene应助科研通管家采纳,获得20
25秒前
科研通AI2S应助科研通管家采纳,获得10
25秒前
传奇3应助科研通管家采纳,获得10
25秒前
英俊的铭应助科研通管家采纳,获得10
25秒前
852应助科研通管家采纳,获得10
26秒前
SYLH应助科研通管家采纳,获得20
26秒前
26秒前
26秒前
SYLH应助科研通管家采纳,获得20
26秒前
26秒前
研友_VZG7GZ应助科研通管家采纳,获得10
26秒前
26秒前
SYLH应助科研通管家采纳,获得20
26秒前
高分求助中
The Mother of All Tableaux: Order, Equivalence, and Geometry in the Large-scale Structure of Optimality Theory 3000
A new approach to the extrapolation of accelerated life test data 1000
Indomethacinのヒトにおける経皮吸収 400
基于可调谐半导体激光吸收光谱技术泄漏气体检测系统的研究 370
Phylogenetic study of the order Polydesmida (Myriapoda: Diplopoda) 370
Robot-supported joining of reinforcement textiles with one-sided sewing heads 320
Aktuelle Entwicklungen in der linguistischen Forschung 300
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 3993068
求助须知:如何正确求助?哪些是违规求助? 3533981
关于积分的说明 11264261
捐赠科研通 3273665
什么是DOI,文献DOI怎么找? 1806134
邀请新用户注册赠送积分活动 883003
科研通“疑难数据库(出版商)”最低求助积分说明 809644