FedSCR: Structure-based Communication Reduction for Federated Learning

计算机科学 稳健性(进化) 独立同分布随机变量 还原(数学) 架空(工程) 边缘设备 信息丢失 GSM演进的增强数据速率 财产(哲学) 数据挖掘 算法 机器学习 人工智能 随机变量 云计算 数学 操作系统 认识论 统计 哲学 基因 化学 生物化学 几何学
作者
Xueyu Wu,Xin Yao,Cho-Li Wang
出处
期刊:IEEE Transactions on Parallel and Distributed Systems [Institute of Electrical and Electronics Engineers]
卷期号:: 1-1 被引量:34
标识
DOI:10.1109/tpds.2020.3046250
摘要

Federated Learning allows edge devices to collaboratively train a shared model on their local data without leaking user privacy. The non-independent-and-identically-distributed (Non-IID) property of data distribution, which leads to severe accuracy degradation, and enormous communication overhead for aggregating parameters should be tackled in federated learning. In this article, we conduct a detailed analysis of parameter updates on the Non-IID datasets and compare the difference with the IID setting. Experimental results exhibit that parameter update matrices are structure-sparse and show that more gradients could be identified as negligible updates on the Non-IID data. As a result, we propose a structure-based communication reduction algorithm, called FedSCR, that reduces the number of parameters transported through the network while maintaining the model accuracy. FedSCR aggregates the parameter updates over channels and filters, identifies and removes the redundant updates by comparing the aggregated values with a threshold. Unlike the traditional structured pruning methods, FedSCR retains the complete model that does not require to be retrained and fine-tuned. The local loss and weight divergence on each device vary a lot because of the unbalanced data distribution. We further propose an adaptive FedSCR, that dynamically changes the bounded threshold, to enhance the model robustness on the Non-IID data. Evaluation results show that our proposed strategies achieve almost 50 percent upstream communication reduction without loss of accuracy. FedSCR can be integrated into state-of-the-art federated learning algorithms to dramatically reduce the number of parameters pushed to the global server with a tolerable accuracy reduction.

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
刚刚
852应助xl采纳,获得10
刚刚
隐形曼青应助zeta采纳,获得10
刚刚
heady发布了新的文献求助10
1秒前
LLM发布了新的文献求助10
1秒前
hui关闭了hui文献求助
1秒前
无极微光应助派大星采纳,获得20
1秒前
1秒前
1秒前
2秒前
2秒前
2秒前
2秒前
大模型应助FlipFlops采纳,获得10
2秒前
坚强的元珊应助猪猪hero采纳,获得20
2秒前
luanzhaohui发布了新的文献求助50
3秒前
jia完成签到 ,获得积分10
3秒前
量子星尘发布了新的文献求助10
3秒前
向北发布了新的文献求助20
3秒前
kimchiyak给咯咯咯的求助进行了留言
4秒前
5秒前
5秒前
外向的初曼完成签到,获得积分10
5秒前
NexusExplorer应助wuran采纳,获得10
5秒前
复杂的梦易完成签到,获得积分10
6秒前
FashionBoy应助zhou采纳,获得10
6秒前
柳博超完成签到,获得积分10
7秒前
KHromance发布了新的文献求助10
8秒前
duoduo发布了新的文献求助20
8秒前
unicorn完成签到,获得积分10
8秒前
LLM完成签到,获得积分10
9秒前
ss发布了新的文献求助10
9秒前
跳跃完成签到,获得积分10
9秒前
jksg发布了新的文献求助10
10秒前
打打应助熙可檬采纳,获得10
11秒前
11秒前
传奇3应助pure采纳,获得10
12秒前
彩色的曼柔完成签到 ,获得积分10
12秒前
enen发布了新的文献求助10
12秒前
魔幻的翠容完成签到 ,获得积分10
12秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Encyclopedia of Reproduction Third Edition 3000
《药学类医疗服务价格项目立项指南(征求意见稿)》 1000
花の香りの秘密―遺伝子情報から機能性まで 800
1st Edition Sports Rehabilitation and Training Multidisciplinary Perspectives By Richard Moss, Adam Gledhill 600
Chemistry and Biochemistry: Research Progress Vol. 7 430
Biotechnology Engineering 400
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5629957
求助须知:如何正确求助?哪些是违规求助? 4721200
关于积分的说明 14971845
捐赠科研通 4787915
什么是DOI,文献DOI怎么找? 2556638
邀请新用户注册赠送积分活动 1517713
关于科研通互助平台的介绍 1478320