Visual–Motion–Interaction-Guided Pedestrian Intention Prediction Framework

行人 编码器 计算机科学 水准点(测量) 人工智能 背景(考古学) 弹道 机器学习 特征(语言学) 人机交互 计算机视觉 工程类 操作系统 生物 天文 物理 哲学 古生物学 语言学 地理 运输工程 大地测量学
作者
Neha Sharma,Chhavi Dhiman,S. Indu
出处
期刊:IEEE Sensors Journal [Institute of Electrical and Electronics Engineers]
卷期号:23 (22): 27540-27548
标识
DOI:10.1109/jsen.2023.3317426
摘要

The capability to comprehend the intention of pedestrians on the road is one of the most crucial skills that the current autonomous vehicles (AVs) are striving for, to become fully autonomous. In recent years, multimodal methods have gained traction employing trajectory, appearance, and context for predicting pedestrian crossing intention. However, most existing research works still lag rich feature representational ability in a multimodal scenario, restricting their performance. Moreover, less emphasis is put on pedestrian interactions with the surroundings for predicting short-term pedestrian intention in a challenging ego-centric vision. To address these challenges, an efficient visual–motion–interaction-guided (VMI) intention prediction framework has been proposed. This framework comprises visual encoder (VE), motion encoder (ME), and interaction encoder (IE) to capture rich multimodal features of the pedestrian and its interactions with the surroundings, followed by temporal attention and adaptive fusion (AF) module (AFM) to integrate these multimodal features efficiently. The proposed framework outperforms several SOTA on benchmark datasets: Pedestrian Intention Estimation (PIE)/Joint Attention in Autonomous Driving (JAAD) with accuracy, AUC, ${F}1$ -score, precision, and recall as 0.92/0.89, 0.91/0.90, 0.87/0.81, 0.86/0.79, and 0.88/0.83, respectively. Furthermore, extensive experiments are carried out to investigate different fusion architectures and design parameters of all encoders. The proposed VMI framework predicts pedestrian crossing intention 2.5 s ahead of the crossing event. Code is available at: https://github.com/neha013/VMI.git .
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
刚刚
1秒前
orixero应助sybil采纳,获得10
1秒前
1秒前
笨笨紫霜发布了新的文献求助10
2秒前
2秒前
周国超发布了新的文献求助10
3秒前
想人陪的飞薇完成签到 ,获得积分10
4秒前
4秒前
未命名完成签到,获得积分10
5秒前
NexusExplorer应助能干的书包采纳,获得10
5秒前
ZZZ发布了新的文献求助30
5秒前
苗条砖家发布了新的文献求助10
6秒前
饭老师发布了新的文献求助10
6秒前
天啦噜完成签到 ,获得积分10
7秒前
万能图书馆应助狄语蕊采纳,获得10
7秒前
8秒前
乐乐应助无限的绮南采纳,获得10
8秒前
koly完成签到 ,获得积分10
8秒前
搞怪便当完成签到,获得积分10
8秒前
疯狂的雁荷完成签到,获得积分10
8秒前
9秒前
会飞的鱼完成签到,获得积分10
10秒前
年年完成签到,获得积分10
11秒前
白鸽应助yg采纳,获得10
11秒前
白鸽应助yg采纳,获得10
11秒前
12秒前
13秒前
李健应助喜东东采纳,获得30
14秒前
14秒前
李雪完成签到,获得积分10
15秒前
Orange应助科研小白采纳,获得10
15秒前
15秒前
夏侯觅风完成签到,获得积分10
15秒前
11完成签到 ,获得积分10
16秒前
文献查找发布了新的文献求助10
16秒前
lihui发布了新的文献求助10
16秒前
英姑应助漂亮的访冬采纳,获得10
17秒前
17秒前
Cherry发布了新的文献求助10
18秒前
高分求助中
Sustainability in Tides Chemistry 2800
The Young builders of New china : the visit of the delegation of the WFDY to the Chinese People's Republic 1000
Rechtsphilosophie 1000
Bayesian Models of Cognition:Reverse Engineering the Mind 888
Le dégorgement réflexe des Acridiens 800
Defense against predation 800
Very-high-order BVD Schemes Using β-variable THINC Method 568
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3135273
求助须知:如何正确求助?哪些是违规求助? 2786262
关于积分的说明 7776475
捐赠科研通 2442202
什么是DOI,文献DOI怎么找? 1298495
科研通“疑难数据库(出版商)”最低求助积分说明 625112
版权声明 600847