Visual–Motion–Interaction-Guided Pedestrian Intention Prediction Framework

行人 编码器 计算机科学 水准点(测量) 人工智能 背景(考古学) 弹道 机器学习 特征(语言学) 人机交互 计算机视觉 工程类 操作系统 生物 天文 物理 哲学 古生物学 语言学 地理 运输工程 大地测量学
作者
Neha Sharma,Chhavi Dhiman,S. Indu
出处
期刊:IEEE Sensors Journal [Institute of Electrical and Electronics Engineers]
卷期号:23 (22): 27540-27548
标识
DOI:10.1109/jsen.2023.3317426
摘要

The capability to comprehend the intention of pedestrians on the road is one of the most crucial skills that the current autonomous vehicles (AVs) are striving for, to become fully autonomous. In recent years, multimodal methods have gained traction employing trajectory, appearance, and context for predicting pedestrian crossing intention. However, most existing research works still lag rich feature representational ability in a multimodal scenario, restricting their performance. Moreover, less emphasis is put on pedestrian interactions with the surroundings for predicting short-term pedestrian intention in a challenging ego-centric vision. To address these challenges, an efficient visual–motion–interaction-guided (VMI) intention prediction framework has been proposed. This framework comprises visual encoder (VE), motion encoder (ME), and interaction encoder (IE) to capture rich multimodal features of the pedestrian and its interactions with the surroundings, followed by temporal attention and adaptive fusion (AF) module (AFM) to integrate these multimodal features efficiently. The proposed framework outperforms several SOTA on benchmark datasets: Pedestrian Intention Estimation (PIE)/Joint Attention in Autonomous Driving (JAAD) with accuracy, AUC, ${F}1$ -score, precision, and recall as 0.92/0.89, 0.91/0.90, 0.87/0.81, 0.86/0.79, and 0.88/0.83, respectively. Furthermore, extensive experiments are carried out to investigate different fusion architectures and design parameters of all encoders. The proposed VMI framework predicts pedestrian crossing intention 2.5 s ahead of the crossing event. Code is available at: https://github.com/neha013/VMI.git .

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
Rebecca发布了新的文献求助10
刚刚
酸角发布了新的文献求助10
刚刚
cjw发布了新的文献求助10
刚刚
传奇3应助羊二呆采纳,获得10
1秒前
Ars完成签到,获得积分10
1秒前
1秒前
KFC代吃完成签到,获得积分10
1秒前
迅速寻琴发布了新的文献求助10
1秒前
2秒前
MG_aichy完成签到,获得积分10
2秒前
GWF发布了新的文献求助10
3秒前
3秒前
Margham发布了新的文献求助30
3秒前
RichDog发布了新的文献求助30
4秒前
彩色冥幽发布了新的文献求助10
4秒前
自信忻发布了新的文献求助10
4秒前
5秒前
5秒前
维奈克拉应助妞妞采纳,获得10
5秒前
6秒前
小杜发布了新的文献求助10
6秒前
6秒前
6秒前
稳重中心发布了新的文献求助10
6秒前
7秒前
冉容完成签到 ,获得积分10
7秒前
7秒前
7U发布了新的文献求助10
8秒前
江江发布了新的文献求助10
9秒前
Tabby完成签到,获得积分10
9秒前
9秒前
量子星尘发布了新的文献求助10
11秒前
充电宝应助王桐采纳,获得10
11秒前
浮游应助畅快远山采纳,获得10
11秒前
曾长石发布了新的文献求助10
11秒前
11秒前
11秒前
沁秋发布了新的文献求助10
12秒前
ljx完成签到,获得积分10
12秒前
花汀酒完成签到 ,获得积分10
12秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Encyclopedia of Reproduction Third Edition 3000
《药学类医疗服务价格项目立项指南(征求意见稿)》 1000
花の香りの秘密―遺伝子情報から機能性まで 800
1st Edition Sports Rehabilitation and Training Multidisciplinary Perspectives By Richard Moss, Adam Gledhill 600
nephSAP® Nephrology Self-Assessment Program - Hypertension The American Society of Nephrology 500
Digital and Social Media Marketing 500
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5625544
求助须知:如何正确求助?哪些是违规求助? 4711411
关于积分的说明 14955483
捐赠科研通 4779507
什么是DOI,文献DOI怎么找? 2553786
邀请新用户注册赠送积分活动 1515698
关于科研通互助平台的介绍 1475905