FedOComp: Two-Timescale Online Gradient Compression for Over-the-Air Federated Learning

计算机科学 趋同(经济学) 编配 数据压缩 收敛速度 压缩(物理) 分布式计算 数据压缩比 软件部署 实时计算 人工智能 计算机网络 图像压缩 频道(广播) 艺术 音乐剧 材料科学 图像(数学) 复合材料 图像处理 经济 视觉艺术 经济增长 操作系统
作者
Ye Xue,Liqun Su,Vincent K. N. Lau
出处
期刊:IEEE Internet of Things Journal [Institute of Electrical and Electronics Engineers]
卷期号:9 (19): 19330-19345 被引量:15
标识
DOI:10.1109/jiot.2022.3165268
摘要

Federated learning (FL) is a machine learning framework, where multiple distributed edge Internet of Things (IoT) devices collaboratively train a model under the orchestration of a central server while keeping the training data distributed on the IoT devices. FL can mitigate the privacy risks and costs from data collection in traditional centralized machine learning. However, the deployment of standard FL is hindered by the expense of the communication of the gradients from the devices to the server. Hence, many gradient compression methods have been proposed to reduce the communication cost. However, the existing methods ignore the structural correlations of the gradients and, therefore, lead to a large compression loss which will decelerate the training convergence. Moreover, many of the existing compression schemes do not enable over-the-air aggregation and, hence, require huge communication resources. In this work, we propose a gradient compression scheme, named FedOComp, which leverages the correlations of the stochastic gradients in FL systems for efficient compression of the high-dimension gradients with over-the-air aggregation. The proposed design can achieve a smaller deceleration of the training convergence compared to other gradient compression methods since the compression kernel exploits the structural correlations of the gradients. It also directly enables over-the-air aggregation to save communication resources. The derived convergence analysis and simulation results further illustrate that under the same power cost, the proposed scheme has a much faster convergence rate and higher test accuracy compared to existing baselines.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
xiaodq发布了新的文献求助10
1秒前
呦呦又鹿完成签到,获得积分10
1秒前
WTC完成签到 ,获得积分10
1秒前
2秒前
彭于晏应助王计恩采纳,获得10
2秒前
青天如墨发布了新的文献求助10
5秒前
Jasper应助Chaffee采纳,获得10
5秒前
antonia1031应助Gavin采纳,获得10
6秒前
Timmy完成签到,获得积分10
6秒前
6秒前
赘婿应助未勉采纳,获得10
7秒前
俏皮诺言发布了新的文献求助10
7秒前
竹筏过海应助nolan采纳,获得30
8秒前
Hiccup完成签到,获得积分10
9秒前
9秒前
董小天天应助温伊采纳,获得10
9秒前
10秒前
大个应助ChenCC采纳,获得10
10秒前
阿兰完成签到 ,获得积分10
11秒前
菠萝吹雪应助qwq采纳,获得10
12秒前
dingdingding完成签到,获得积分10
12秒前
Timmy发布了新的文献求助10
12秒前
12秒前
13秒前
pan完成签到 ,获得积分10
13秒前
kxy完成签到,获得积分10
14秒前
所所应助GG采纳,获得10
14秒前
sommer12345完成签到 ,获得积分10
14秒前
呆萌千凝完成签到,获得积分10
15秒前
15秒前
姽婳wy发布了新的文献求助10
17秒前
17秒前
qikaka完成签到,获得积分10
17秒前
小巧过客完成签到,获得积分10
17秒前
tianyuer完成签到,获得积分10
18秒前
学术草履虫完成签到,获得积分10
18秒前
呆萌千凝发布了新的文献求助10
18秒前
小雪糕的丈母娘完成签到,获得积分10
18秒前
酷波er应助林林采纳,获得10
18秒前
袁硕发布了新的文献求助10
18秒前
高分求助中
歯科矯正学 第7版(或第5版) 1004
Smart but Scattered: The Revolutionary Executive Skills Approach to Helping Kids Reach Their Potential (第二版) 1000
Semiconductor Process Reliability in Practice 720
PraxisRatgeber: Mantiden: Faszinierende Lauerjäger 700
GROUP-THEORY AND POLARIZATION ALGEBRA 500
Mesopotamian divination texts : conversing with the gods : sources from the first millennium BCE 500
Days of Transition. The Parsi Death Rituals(2011) 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3227124
求助须知:如何正确求助?哪些是违规求助? 2875291
关于积分的说明 8190203
捐赠科研通 2542475
什么是DOI,文献DOI怎么找? 1372802
科研通“疑难数据库(出版商)”最低求助积分说明 646537
邀请新用户注册赠送积分活动 620971