Visual–Motion–Interaction-Guided Pedestrian Intention Prediction Framework

行人 编码器 计算机科学 水准点(测量) 人工智能 背景(考古学) 弹道 机器学习 特征(语言学) 人机交互 计算机视觉 工程类 操作系统 生物 天文 物理 哲学 古生物学 语言学 地理 运输工程 大地测量学
作者
Neha Sharma,Chhavi Dhiman,S. Indu
出处
期刊:IEEE Sensors Journal [IEEE Sensors Council]
卷期号:23 (22): 27540-27548
标识
DOI:10.1109/jsen.2023.3317426
摘要

The capability to comprehend the intention of pedestrians on the road is one of the most crucial skills that the current autonomous vehicles (AVs) are striving for, to become fully autonomous. In recent years, multimodal methods have gained traction employing trajectory, appearance, and context for predicting pedestrian crossing intention. However, most existing research works still lag rich feature representational ability in a multimodal scenario, restricting their performance. Moreover, less emphasis is put on pedestrian interactions with the surroundings for predicting short-term pedestrian intention in a challenging ego-centric vision. To address these challenges, an efficient visual–motion–interaction-guided (VMI) intention prediction framework has been proposed. This framework comprises visual encoder (VE), motion encoder (ME), and interaction encoder (IE) to capture rich multimodal features of the pedestrian and its interactions with the surroundings, followed by temporal attention and adaptive fusion (AF) module (AFM) to integrate these multimodal features efficiently. The proposed framework outperforms several SOTA on benchmark datasets: Pedestrian Intention Estimation (PIE)/Joint Attention in Autonomous Driving (JAAD) with accuracy, AUC, ${F}1$ -score, precision, and recall as 0.92/0.89, 0.91/0.90, 0.87/0.81, 0.86/0.79, and 0.88/0.83, respectively. Furthermore, extensive experiments are carried out to investigate different fusion architectures and design parameters of all encoders. The proposed VMI framework predicts pedestrian crossing intention 2.5 s ahead of the crossing event. Code is available at: https://github.com/neha013/VMI.git .

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
刚刚
happy发布了新的文献求助10
4秒前
4秒前
5秒前
Aiven完成签到,获得积分10
5秒前
超帅的xuan完成签到,获得积分10
6秒前
乐观三问完成签到,获得积分10
6秒前
ljlj完成签到 ,获得积分10
7秒前
拼搏问安完成签到,获得积分10
7秒前
万能图书馆应助tyZhang采纳,获得10
7秒前
调皮灵槐发布了新的文献求助10
8秒前
辛勤寻凝完成签到,获得积分10
9秒前
9秒前
JamesPei应助科研通管家采纳,获得10
10秒前
领导范儿应助科研通管家采纳,获得10
10秒前
李爱国应助科研通管家采纳,获得10
10秒前
CipherSage应助科研通管家采纳,获得10
10秒前
10秒前
10秒前
爆米花应助科研通管家采纳,获得10
10秒前
Lucas应助科研通管家采纳,获得10
10秒前
10秒前
FashionBoy应助科研通管家采纳,获得10
10秒前
10秒前
Dprisk完成签到,获得积分20
11秒前
Jasper应助wwwwww采纳,获得10
12秒前
RUINNNO发布了新的文献求助10
12秒前
lyzzz完成签到,获得积分20
13秒前
14秒前
17秒前
刘凡完成签到,获得积分10
18秒前
乐乐应助Xianhe采纳,获得10
19秒前
稳赚赚完成签到,获得积分10
19秒前
20秒前
21秒前
可达燊发布了新的文献求助10
23秒前
wwwwww发布了新的文献求助10
23秒前
刘明苏发布了新的文献求助10
24秒前
飘逸的幻灵完成签到,获得积分10
25秒前
26秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Les Mantodea de Guyane Insecta, Polyneoptera 2000
Emmy Noether's Wonderful Theorem 1200
Leading Academic-Practice Partnerships in Nursing and Healthcare: A Paradigm for Change 800
基于非线性光纤环形镜的全保偏锁模激光器研究-上海科技大学 800
Signals, Systems, and Signal Processing 610
Research Methods for Business: A Skill Building Approach, 9th Edition 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6411397
求助须知:如何正确求助?哪些是违规求助? 8230640
关于积分的说明 17466947
捐赠科研通 5464198
什么是DOI,文献DOI怎么找? 2887181
邀请新用户注册赠送积分活动 1863819
关于科研通互助平台的介绍 1702752