清晨好,您是今天最早来到科研通的研友!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您科研之路漫漫前行!

Ensemble Attention Distillation for Privacy-Preserving Federated Learning

计算机科学 机器学习 节点(物理) 人工智能 蒸馏 数据挖掘 结构工程 工程类 有机化学 化学
作者
Xuan Gong,Abhishek Sharma,Srikrishna Karanam,Ziyan Wu,Terrence Chen,David Doermann,Arun Innanje
标识
DOI:10.1109/iccv48922.2021.01480
摘要

We consider the problem of Federated Learning (FL) where numerous decentralized computational nodes collaborate with each other to train a centralized machine learning model without explicitly sharing their local data samples. Such decentralized training naturally leads to issues of imbalanced or differing data distributions among the local models and challenges in fusing them into a central model. Existing FL methods deal with these issues by either sharing local parameters or fusing models via online distillation. However, such a design leads to multiple rounds of inter-node communication resulting in substantial band-width consumption, while also increasing the risk of data leakage and consequent privacy issues. To address these problems, we propose a new distillation-based FL frame-work that can preserve privacy by design, while also consuming substantially less network communication resources when compared to the current methods. Our framework engages in inter-node communication using only publicly available and approved datasets, thereby giving explicit privacy control to the user. To distill knowledge among the various local models, our framework involves a novel ensemble distillation algorithm that uses both final prediction as well as model attention. This algorithm explicitly considers the diversity among various local nodes while also seeking consensus among them. This results in a comprehensive technique to distill knowledge from various decentralized nodes. We demonstrate the various aspects and the associated benefits of our FL framework through extensive experiments that produce state-of-the-art results on both classification and segmentation tasks on natural and medical images.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
桐桐应助愉快怜菡采纳,获得10
28秒前
紫熊发布了新的文献求助10
34秒前
科研通AI5应助容若采纳,获得10
40秒前
科研通AI2S应助Sym采纳,获得10
1分钟前
清脆的靖仇完成签到,获得积分10
1分钟前
紫熊完成签到,获得积分10
1分钟前
JamesPei应助Sym采纳,获得10
2分钟前
自然亦凝完成签到,获得积分10
3分钟前
我我我完成签到,获得积分10
4分钟前
诺亚方舟哇哈哈完成签到 ,获得积分0
4分钟前
4分钟前
田様应助容若采纳,获得10
4分钟前
欧皇发布了新的文献求助10
4分钟前
5分钟前
思源应助容若采纳,获得10
5分钟前
cqhecq完成签到,获得积分10
6分钟前
6分钟前
6分钟前
逐梦小绳发布了新的文献求助10
6分钟前
方白秋完成签到,获得积分0
6分钟前
共享精神应助容若采纳,获得10
6分钟前
new1完成签到,获得积分10
8分钟前
dong完成签到,获得积分10
8分钟前
可爱的函函应助容若采纳,获得10
8分钟前
8分钟前
dong发布了新的文献求助10
8分钟前
snowdream完成签到,获得积分10
8分钟前
量子星尘发布了新的文献求助100
8分钟前
今后应助容若采纳,获得10
9分钟前
neversay4ever完成签到 ,获得积分10
9分钟前
风中的丝袜完成签到,获得积分10
9分钟前
水雾完成签到 ,获得积分10
10分钟前
orixero应助容若采纳,获得10
10分钟前
Raunio完成签到,获得积分10
10分钟前
芳华如梦完成签到 ,获得积分10
11分钟前
研友_VZG7GZ应助容若采纳,获得10
11分钟前
一盏壶完成签到,获得积分10
11分钟前
11分钟前
11分钟前
11分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
SOFT MATTER SERIES Volume 22 Soft Matter in Foods 1000
Zur lokalen Geoidbestimmung aus terrestrischen Messungen vertikaler Schweregradienten 1000
Rapid synthesis of subnanoscale high-entropy alloys with ultrahigh durability 666
Storie e culture della televisione 500
Selected research on camelid physiology and nutrition 500
《2023南京市住宿行业发展报告》 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 内科学 生物化学 物理 计算机科学 纳米技术 遗传学 基因 复合材料 化学工程 物理化学 病理 催化作用 免疫学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 4889676
求助须知:如何正确求助?哪些是违规求助? 4173588
关于积分的说明 12952267
捐赠科研通 3935088
什么是DOI,文献DOI怎么找? 2159212
邀请新用户注册赠送积分活动 1177552
关于科研通互助平台的介绍 1082487