标题 |
![]() 表示相似性:无需训练的边缘计算DNN层共享的更好指导
相关领域
计算机科学
内存占用
基本事实
GSM演进的增强数据速率
代表(政治)
相似性(几何)
云计算
人工智能
再培训
数据挖掘
对象(语法)
边缘设备
机器学习
模式识别(心理学)
图像(数学)
政治
国际贸易
业务
操作系统
政治学
法学
|
备注 |
需要正版,不是3页那个谢谢
|
网址 | |
DOI | |
其它 | 摘要:边缘计算已成为减少传输和处理延迟并保护视频流隐私的替代方案。然而,基于视频的应用程序(例如对象检测)中使用的深度神经网络 (DNN) 的复杂性不断增加,这给内存受限的边缘设备带来了压力。建议进行模型合并,通过在内存中仅保留合并层权重的一个副本来减少 DNN 的内存占用。在现有的模型合并技术中,(i) 只能共享架构相同的图层;(ii) 需要在云中进行计算成本高昂的再训练;(iii) 假设 Ground Truth 可用于再训练。然而,重新评估合并模型的性能需要一个具有 Ground Truth 的验证数据集,通常在云端运行。指导选择共享层的常见度量包括共享层的大小或计算成本或表示大小。我们提出了一种新的模型合并方案,通过在边缘共享表示(即层的输出)来在表示相似性 S 的指导下。我们表明 S 与合并模型的准确性与 Pearson 相关系数 |r|> 0.94 比其他指标高,这表明表示相似性可以作为没有基本事实的强验证准确性指标。我们介绍了新提出的模型合并方案的初步结果以及已确定的挑战,展示了一个有希望的研究未来方向。 |
求助人 | |
下载 | |
温馨提示:该文献已被科研通 学术中心 收录,前往查看
科研通『学术中心』是文献索引库,收集文献的基本信息(如标题、摘要、期刊、作者、被引量等),不提供下载功能。如需下载文献全文,请通过文献求助获取。
|