Proximal Policy Optimization With Policy Feedback

强化学习 价值(数学) 贝尔曼方程 功能(生物学) 计算机科学 建筑 差异(会计) 过程(计算) 价值网络 趋同(经济学) 数学优化 人工智能 机器学习 数学 经济 生物 操作系统 会计 进化生物学 艺术 视觉艺术 管理 经济增长 商业模式
作者
Yang Gu,Yuhu Cheng,C. L. Philip Chen,Xuesong Wang
出处
期刊:IEEE transactions on systems, man, and cybernetics [Institute of Electrical and Electronics Engineers]
卷期号:52 (7): 4600-4610 被引量:40
标识
DOI:10.1109/tsmc.2021.3098451
摘要

Proximal policy optimization (PPO) is a deep reinforcement learning algorithm based on the actor–critic (AC) architecture. In the classic AC architecture, the Critic (value) network is used to estimate the value function while the Actor (policy) network optimizes the policy according to the estimated value function. The efficiency of the classic AC architecture is limited due that the policy does not directly participate in the value function update. The classic AC architecture will make the value function estimation inaccurate, which will affect the performance of the PPO algorithm. For improvement, we designed a novel AC architecture with policy feedback (AC-PF) by introducing the policy into the update process of the value function and further proposed the PPO with policy feedback (PPO-PF). For the AC-PF architecture, the policy-based expected (PBE) value function and discount reward formulas are designed by drawing inspiration from expected Sarsa. In order to enhance the sensitivity of the value function to the change of policy and to improve the accuracy of PBE value estimation at the early learning stage, we proposed a policy update method based on the clipped discount factor. Moreover, we specifically defined the loss functions of the policy network and value network to ensure that the policy update of PPO-PF satisfies the unbiased estimation of the trust region. Experiments on Atari games and control tasks show that compared to PPO, PPO-PF has faster convergence speed, higher reward, and smaller variance of reward.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
含糊的大侠完成签到 ,获得积分10
1秒前
1秒前
3秒前
卑微学术人完成签到 ,获得积分10
7秒前
乐乐应助迅速的雨泽采纳,获得10
8秒前
八段锦完成签到,获得积分10
9秒前
kkkkfox发布了新的文献求助10
9秒前
烟花应助科研通管家采纳,获得10
11秒前
雪山飞狐小叮叮完成签到,获得积分20
16秒前
年轻的凝云完成签到 ,获得积分10
20秒前
Lisztan完成签到,获得积分10
26秒前
豆子完成签到 ,获得积分10
32秒前
确幸完成签到,获得积分10
33秒前
47秒前
huiluowork完成签到 ,获得积分10
50秒前
隔壁巷子里的劉完成签到 ,获得积分10
51秒前
51秒前
ccy完成签到,获得积分10
52秒前
53秒前
萨尔莫斯完成签到,获得积分10
53秒前
liuzhigang完成签到 ,获得积分10
53秒前
kkkkfox发布了新的文献求助10
57秒前
科研通AI2S应助沈慧采纳,获得10
59秒前
一一应助沈慧采纳,获得10
59秒前
violetlishu完成签到 ,获得积分10
1分钟前
ChenSSS发布了新的文献求助10
1分钟前
wushuimei完成签到 ,获得积分10
1分钟前
123完成签到,获得积分10
1分钟前
yangy115完成签到,获得积分10
1分钟前
1分钟前
1分钟前
沈慧完成签到,获得积分20
1分钟前
鳌小饭完成签到 ,获得积分10
1分钟前
CC发布了新的文献求助10
1分钟前
诚心不凡发布了新的文献求助10
1分钟前
CC完成签到,获得积分10
1分钟前
1分钟前
Lily发布了新的文献求助10
1分钟前
1分钟前
tzy6665完成签到,获得积分10
1分钟前
高分求助中
Solution Manual for Strategic Compensation A Human Resource Management Approach 1200
Natural History of Mantodea 螳螂的自然史 1000
Glucuronolactone Market Outlook Report: Industry Size, Competition, Trends and Growth Opportunities by Region, YoY Forecasts from 2024 to 2031 800
A Photographic Guide to Mantis of China 常见螳螂野外识别手册 800
Treatise on Estuarine and Coastal Science (Second Edition) Volume 3: Biogeochemical Cycling 2024 500
Zeitschrift für Orient-Archäologie 500
Smith-Purcell Radiation 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 物理化学 催化作用 细胞生物学 免疫学 冶金
热门帖子
关注 科研通微信公众号,转发送积分 3341917
求助须知:如何正确求助?哪些是违规求助? 2969256
关于积分的说明 8638010
捐赠科研通 2648930
什么是DOI,文献DOI怎么找? 1450469
科研通“疑难数据库(出版商)”最低求助积分说明 671917
邀请新用户注册赠送积分活动 660991