标题 |
![]() SplitGP:在联邦学习中同时实现泛化和个性化
相关领域
计算机科学
一般化
推论
个性化
机器学习
客户端
趋同(经济学)
GSM演进的增强数据速率
人工智能
钥匙(锁)
边缘设备
任务(项目管理)
服务器
云计算
计算机网络
计算机安全
万维网
数学分析
数学
管理
经济
经济增长
操作系统
|
网址 | |
DOI | |
其它 | 摘要:提供边缘 AI 服务的一个根本挑战是需要一种机器学习 (ML) 模型,该模型可以同时实现个性化(即针对单个客户)和泛化(即针对看不见的数据)属性。联邦学习 (FL) 中的现有技术在这些目标之间遇到了巨大的权衡,并在训练和推理期间对边缘设备提出了巨大的计算要求。在本文中,我们提出了 SplitGP,这是一种新的拆分学习解决方案,可以同时捕获泛化和个性化功能,以便在资源受限的客户端(例如,移动/物联网设备)之间进行高效推理。我们的关键思想是将完整的 ML 模型拆分为客户端和服务器端组件,并为其赋予不同的角色:客户端模型经过训练,具有针对每个客户端的主要任务优化的强大个性化能力,而服务器端模型经过训练,具有强大的泛化能力,可以处理所有客户端的分布式任务。我们分析了 SplitGP 的收敛行为,揭示了所有客户端模型都渐近地接近静止点。此外,我们分析了 SplitGP 中的推理时间,并提供了确定模型拆分比率的边界。实验结果表明,对于不同数量的分布外样本,SplitGP 在推理时间和测试准确性方面大大优于现有基线。 |
求助人 | |
下载 | 求助已完成,仅限求助人下载。 |
温馨提示:该文献已被科研通 学术中心 收录,前往查看
科研通『学术中心』是文献索引库,收集文献的基本信息(如标题、摘要、期刊、作者、被引量等),不提供下载功能。如需下载文献全文,请通过文献求助获取。
|