已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

Multiagent Reinforcement Learning for Autonomous Routing and Pickup Problem with Adaptation to Variable Demand

计算机科学 布线(电子设计自动化) 强化学习 皮卡 模棱两可 集合(抽象数据类型) 变量(数学) 先验与后验 需求模式 适应(眼睛) 离线学习 数学优化 运筹学 需求管理 分布式计算 人工智能 计算机网络 数学 经济 在线学习 宏观经济学 哲学 万维网 数学分析 程序设计语言 物理 光学 图像(数学) 认识论
作者
Daniel Garces,Sushmita Bhattacharya,Stephanie Gil,Dimitri P. Bertsekas
标识
DOI:10.1109/icra48891.2023.10161067
摘要

We derive a learning framework to generate routing/pickup policies for a fleet of autonomous vehicles tasked with servicing stochastically appearing requests on a city map. We focus on policies that 1) give rise to coordination amongst the vehicles, thereby reducing wait times for servicing requests, 2) are non-myopic, and consider a-priori potential future requests, 3) can adapt to changes in the underlying demand distribution. Specifically, we are interested in policies that are adaptive to fluctuations of actual demand conditions in urban environments, such as on-peak vs. off-peak hours. We achieve this through a combination of (i) an online play algorithm that improves the performance of an offline-trained policy, and (ii) an offline approximation scheme that allows for adapting to changes in the underlying demand model. In particular, we achieve adaptivity of our learned policy to different demand distributions by quantifying a region of validity using the q-valid radius of a Wasserstein Ambiguity Set. We propose a mechanism for switching the originally trained offline approximation when the current demand is outside the original validity region. In this case, we propose to use an offline architecture, trained on a historical demand model that is closer to the current demand in terms of Wasserstein distance. We learn routing and pickup policies over real taxicab requests in San Francisco with high variability between on-peak and off-peak hours, demonstrating the ability of our method to adapt to real fluctuation in demand distributions. Our numerical results demonstrate that our method outperforms alternative rollout-based reinforcement learning schemes, as well as other classical methods from operations research.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
隐形曼青应助瑶啊瑶采纳,获得10
1秒前
JJ发布了新的文献求助10
1秒前
czb完成签到 ,获得积分10
3秒前
3秒前
skycool发布了新的文献求助10
4秒前
4秒前
无聊的石头剪刀布完成签到,获得积分20
4秒前
7秒前
爆米花应助未解的波采纳,获得10
7秒前
7秒前
RED发布了新的文献求助10
9秒前
曦罱发布了新的文献求助10
13秒前
缘在山中完成签到,获得积分10
20秒前
21秒前
SciGPT应助深情映冬采纳,获得10
22秒前
天天快乐应助唠叨的月光采纳,获得10
22秒前
25秒前
洁白的故人完成签到 ,获得积分10
25秒前
小白哥发布了新的文献求助10
25秒前
28秒前
29秒前
30秒前
30秒前
共享精神应助牛犊采纳,获得10
31秒前
31秒前
Marvin完成签到,获得积分10
31秒前
32秒前
33秒前
深情映冬发布了新的文献求助10
34秒前
anya发布了新的文献求助10
35秒前
forory发布了新的文献求助10
36秒前
桐桐应助lizeyu采纳,获得10
36秒前
37秒前
缘在山中发布了新的文献求助10
37秒前
华仔应助研友_Z63kg8采纳,获得20
38秒前
38秒前
焱焱不忘完成签到 ,获得积分10
40秒前
40秒前
牛犊发布了新的文献求助10
43秒前
心向发布了新的文献求助10
44秒前
高分求助中
Sustainability in Tides Chemistry 2000
Bayesian Models of Cognition:Reverse Engineering the Mind 888
Essentials of thematic analysis 700
A Dissection Guide & Atlas to the Rabbit 600
Very-high-order BVD Schemes Using β-variable THINC Method 568
Mantiden: Faszinierende Lauerjäger Faszinierende Lauerjäger 500
PraxisRatgeber: Mantiden: Faszinierende Lauerjäger 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3125790
求助须知:如何正确求助?哪些是违规求助? 2776133
关于积分的说明 7729211
捐赠科研通 2431530
什么是DOI,文献DOI怎么找? 1292140
科研通“疑难数据库(出版商)”最低求助积分说明 622407
版权声明 600380