亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Accelerating Deep Learning Inference via Model Parallelism and Partial Computation Offloading

计算机科学 计算卸载 计算 调度(生产过程) 推论 移动设备 深度学习 架空(工程) 分布式计算 人工智能 边缘计算 算法 GSM演进的增强数据速率 数学优化 数学 操作系统
作者
Huan Zhou,Mingze Li,Ning Wang,Geyong Min,Jie Wu
出处
期刊:IEEE Transactions on Parallel and Distributed Systems [Institute of Electrical and Electronics Engineers]
卷期号:34 (2): 475-488 被引量:38
标识
DOI:10.1109/tpds.2022.3222509
摘要

With the rapid development of Internet-of-Things (IoT) and the explosive advance of deep learning, there is an urgent need to enable deep learning inference on IoT devices in Mobile Edge Computing (MEC). To address the computation limitation of IoT devices in processing complex Deep Neural Networks (DNNs), computation offloading is proposed as a promising approach. Recently, partial computation offloading is developed to dynamically adjust task assignment strategy in different channel conditions for better performance. In this paper, we take advantage of intrinsic DNN computation characteristics and propose a novel Fused-Layer-based (FL-based) DNN model parallelism method to accelerate inference. The key idea is that a DNN layer can be converted to several smaller layers in order to increase partial computation offloading flexibility, and thus further create the better computation offloading solution. However, there is a trade-off between computation offloading flexibility as well as model parallelism overhead. Then, we investigate the optimal DNN model parallelism and the corresponding scheduling and offloading strategies in partial computation offloading. In particular, we propose a Particle Swarm Optimization with Minimizing Waiting (PSOMW) method, which explores and updates the FL strategy, path scheduling strategy, and path offloading strategy to reduce time complexity and avoid invalid solutions. Finally, we validate the effectiveness of the proposed method in commonly used DNNs. The results show that the proposed method can reduce the DNN inference time by an average of 12.75 times compared to the legacy No FL (NFL) algorithm, and is very close to the optimal solution achieved by the Brute Force (BF) algorithm with the difference of less than 0.04%.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
37秒前
qiuxuan100发布了新的文献求助10
43秒前
45秒前
天天快乐应助科研那些年采纳,获得10
55秒前
1分钟前
1分钟前
兆兆完成签到 ,获得积分10
1分钟前
Hedy应助科研那些年采纳,获得10
1分钟前
万能图书馆应助chaoswu采纳,获得10
1分钟前
养一只鱼完成签到 ,获得积分10
1分钟前
1分钟前
chaoswu发布了新的文献求助10
1分钟前
1分钟前
涛ya完成签到,获得积分10
1分钟前
Jenny完成签到,获得积分10
2分钟前
Lily完成签到 ,获得积分10
2分钟前
Lucas应助科研通管家采纳,获得10
2分钟前
研友_nVWP2Z完成签到 ,获得积分10
3分钟前
3分钟前
3分钟前
苗条台灯完成签到 ,获得积分10
4分钟前
4分钟前
思源应助科研通管家采纳,获得10
4分钟前
5分钟前
斯文的涵双发布了新的文献求助100
5分钟前
CipherSage应助科研通管家采纳,获得10
6分钟前
6分钟前
平常的小松鼠完成签到,获得积分10
7分钟前
7分钟前
xin完成签到,获得积分10
7分钟前
7分钟前
8分钟前
姚老表完成签到,获得积分10
8分钟前
朱砂加白糖完成签到,获得积分10
9分钟前
9分钟前
某某某发布了新的文献求助10
9分钟前
9分钟前
adcc102发布了新的文献求助150
9分钟前
某某某发布了新的文献求助10
10分钟前
某某某发布了新的文献求助10
10分钟前
高分求助中
Licensing Deals in Pharmaceuticals 2019-2024 3000
Effect of reactor temperature on FCC yield 2000
Very-high-order BVD Schemes Using β-variable THINC Method 1020
PraxisRatgeber: Mantiden: Faszinierende Lauerjäger 800
Mission to Mao: Us Intelligence and the Chinese Communists in World War II 600
The Conscience of the Party: Hu Yaobang, China’s Communist Reformer 600
MATLAB在传热学例题中的应用 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3303289
求助须知:如何正确求助?哪些是违规求助? 2937578
关于积分的说明 8482518
捐赠科研通 2611482
什么是DOI,文献DOI怎么找? 1425942
科研通“疑难数据库(出版商)”最低求助积分说明 662457
邀请新用户注册赠送积分活动 647005