亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Exploration in Deep Reinforcement Learning: From Single-Agent to Multiagent Domain

强化学习 瓶颈 计算机科学 人工智能 软件部署 集合(抽象数据类型) 领域(数学分析) 深度学习 机器学习 数据科学 软件工程 数学 程序设计语言 数学分析 嵌入式系统
作者
Jianye Hao,Tianpei Yang,Hongyao Tang,Chenjia Bai,Jinyi Liu,Zhaopeng Meng,Peng Liu,Zhen Wang
出处
期刊:IEEE transactions on neural networks and learning systems [Institute of Electrical and Electronics Engineers]
卷期号:: 1-21 被引量:41
标识
DOI:10.1109/tnnls.2023.3236361
摘要

Deep reinforcement learning (DRL) and deep multiagent reinforcement learning (MARL) have achieved significant success across a wide range of domains, including game artificial intelligence (AI), autonomous vehicles, and robotics. However, DRL and deep MARL agents are widely known to be sample inefficient that millions of interactions are usually needed even for relatively simple problem settings, thus preventing the wide application and deployment in real-industry scenarios. One bottleneck challenge behind is the well-known exploration problem, i.e., how efficiently exploring the environment and collecting informative experiences that could benefit policy learning toward the optimal ones. This problem becomes more challenging in complex environments with sparse rewards, noisy distractions, long horizons, and nonstationary co-learners. In this article, we conduct a comprehensive survey on existing exploration methods for both single-agent RL and multiagent RL. We start the survey by identifying several key challenges to efficient exploration. Then, we provide a systematic survey of existing approaches by classifying them into two major categories: uncertainty-oriented exploration and intrinsic motivation-oriented exploration. Beyond the above two main branches, we also include other notable exploration methods with different ideas and techniques. In addition to algorithmic analysis, we provide a comprehensive and unified empirical comparison of different exploration methods for DRL on a set of commonly used benchmarks. According to our algorithmic and empirical investigation, we finally summarize the open problems of exploration in DRL and deep MARL and point out a few future directions.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
13秒前
lalalatiancai发布了新的文献求助10
19秒前
爆米花应助Q123ba叭采纳,获得10
23秒前
32秒前
lalalatiancai完成签到,获得积分20
59秒前
zj完成签到 ,获得积分10
1分钟前
1分钟前
Q123ba叭发布了新的文献求助10
1分钟前
Akim应助曼城是冠军采纳,获得20
1分钟前
1分钟前
orixero应助程宣皓采纳,获得30
1分钟前
1分钟前
1分钟前
az完成签到 ,获得积分10
1分钟前
wafo完成签到,获得积分20
2分钟前
2分钟前
充电宝应助曼城是冠军采纳,获得20
2分钟前
2分钟前
催化小王子完成签到,获得积分10
2分钟前
2分钟前
3分钟前
3分钟前
3分钟前
3分钟前
顺利白竹完成签到 ,获得积分10
3分钟前
3分钟前
3分钟前
3分钟前
程宣皓发布了新的文献求助30
3分钟前
3分钟前
ztt27999完成签到,获得积分10
3分钟前
陈陈陈完成签到,获得积分10
4分钟前
4分钟前
脑洞疼应助Q123ba叭采纳,获得10
4分钟前
曼城是冠军完成签到,获得积分10
4分钟前
4分钟前
4分钟前
科研通AI2S应助科研通管家采纳,获得10
4分钟前
科研通AI2S应助科研通管家采纳,获得10
4分钟前
4分钟前
高分求助中
Production Logging: Theoretical and Interpretive Elements 2000
Very-high-order BVD Schemes Using β-variable THINC Method 1200
Mantiden: Faszinierende Lauerjäger Faszinierende Lauerjäger 1000
PraxisRatgeber: Mantiden: Faszinierende Lauerjäger 1000
中国荞麦品种志 1000
BIOLOGY OF NON-CHORDATES 1000
Autoregulatory progressive resistance exercise: linear versus a velocity-based flexible model 550
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 物理化学 催化作用 细胞生物学 免疫学 冶金
热门帖子
关注 科研通微信公众号,转发送积分 3360051
求助须知:如何正确求助?哪些是违规求助? 2982597
关于积分的说明 8704536
捐赠科研通 2664393
什么是DOI,文献DOI怎么找? 1459020
科研通“疑难数据库(出版商)”最低求助积分说明 675397
邀请新用户注册赠送积分活动 666421