Deep-Reinforcement-Learning-Based Autonomous UAV Navigation With Sparse Rewards

强化学习 计算机科学 马尔可夫决策过程 人工智能 构造(python库) 比例(比率) 过程(计算) 机器学习 领域(数学分析) 状态空间 自主代理人 国家(计算机科学) 方案(数学) 马尔可夫过程 算法 统计 操作系统 量子力学 物理 数学分析 程序设计语言 数学
作者
Chao Wang,Jian Wang,Jingjing Wang,Xudong Zhang
出处
期刊:IEEE Internet of Things Journal [Institute of Electrical and Electronics Engineers]
卷期号:7 (7): 6180-6190 被引量:126
标识
DOI:10.1109/jiot.2020.2973193
摘要

Unmanned aerial vehicles (UAVs) have the potential in delivering Internet-of-Things (IoT) services from a great height, creating an airborne domain of the IoT. In this article, we address the problem of autonomous UAV navigation in large-scale complex environments by formulating it as a Markov decision process with sparse rewards and propose an algorithm named deep reinforcement learning (RL) with nonexpert helpers (LwH). In contrast to prior RL-based methods that put huge efforts into reward shaping, we adopt the sparse reward scheme, i.e., a UAV will be rewarded if and only if it completes navigation tasks. Using the sparse reward scheme ensures that the solution is not biased toward potentially suboptimal directions. However, having no intermediate rewards hinders the agent from efficient learning since informative states are rarely encountered. To handle the challenge, we assume that a prior policy (nonexpert helper) that might be of poor performance is available to the learning agent. The prior policy plays the role of guiding the agent in exploring the state space by reshaping the behavior policy used for environmental interaction. It also assists the agent in achieving goals by setting dynamic learning objectives with increasing difficulty. To evaluate our proposed method, we construct a simulator for UAV navigation in large-scale complex environments and compare our algorithm with several baselines. Experimental results demonstrate that LwH significantly outperforms the state-of-the-art algorithms handling sparse rewards and yields impressive navigation policies comparable to those learned in the environment with dense rewards.

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
123完成签到,获得积分10
刚刚
2秒前
苗条的奇迹完成签到,获得积分10
3秒前
ljx完成签到 ,获得积分0
4秒前
5秒前
加油通发布了新的文献求助10
5秒前
123554完成签到 ,获得积分10
7秒前
就好完成签到,获得积分10
7秒前
zzz2193发布了新的文献求助200
8秒前
岁月荣耀发布了新的文献求助10
10秒前
10秒前
不知完成签到 ,获得积分10
13秒前
赘婿应助汪宇采纳,获得10
13秒前
韦沐完成签到,获得积分10
14秒前
RONG发布了新的文献求助10
15秒前
量子星尘发布了新的文献求助10
16秒前
破碎时间完成签到 ,获得积分10
17秒前
JustinLiu完成签到,获得积分10
17秒前
18秒前
眼睛大的碧凡完成签到,获得积分10
19秒前
岳阳张震岳完成签到,获得积分10
21秒前
22秒前
田様应助雪落长安里采纳,获得10
22秒前
23秒前
yiyi完成签到,获得积分10
24秒前
汪宇发布了新的文献求助10
25秒前
坦率完成签到,获得积分10
26秒前
852应助JustinLiu采纳,获得20
27秒前
28秒前
岁月荣耀完成签到,获得积分0
28秒前
岁月荣耀发布了新的文献求助10
31秒前
粗暴的夏天完成签到 ,获得积分10
32秒前
zzz2193发布了新的文献求助10
32秒前
司忆发布了新的文献求助10
33秒前
在水一方应助qinqin采纳,获得10
34秒前
34秒前
量子星尘发布了新的文献求助10
34秒前
spc68应助cheng采纳,获得10
35秒前
39秒前
x686完成签到,获得积分10
40秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Introduction to strong mixing conditions volume 1-3 5000
Ägyptische Geschichte der 21.–30. Dynastie 2500
Human Embryology and Developmental Biology 7th Edition 2000
The Developing Human: Clinically Oriented Embryology 12th Edition 2000
Clinical Microbiology Procedures Handbook, Multi-Volume, 5th Edition 2000
„Semitische Wissenschaften“? 1510
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5742035
求助须知:如何正确求助?哪些是违规求助? 5405283
关于积分的说明 15343770
捐赠科研通 4883510
什么是DOI,文献DOI怎么找? 2625039
邀请新用户注册赠送积分活动 1573909
关于科研通互助平台的介绍 1530861