A BERT-Based Joint Channel–Temporal Modeling for Action Recognition

计算机科学 判别式 编码器 频道(广播) 人工智能 钥匙(锁) 特征(语言学) 接头(建筑物) 模式识别(心理学) 特征提取 操作系统 语言学 计算机安全 工程类 哲学 计算机网络 建筑工程
作者
Man Yang,Lipeng Gan,Runze Cao,Xiaochao Li
出处
期刊:IEEE Sensors Journal [IEEE Sensors Council]
卷期号:23 (19): 23765-23779 被引量:1
标识
DOI:10.1109/jsen.2023.3303912
摘要

Action recognition provides an application for human action classification utilizing datasets captured by various sensor cameras. However, how to capture the key semantic features and subtle differences for fine-grained action recognition from redundant motion sequence is still a challenging task. To address this issue, we propose a novel bidirectional encoder representations from transformers (BERT)-based joint channel–temporal module to explore channel interaction correlation through channel–temporal embedded module and self-attention mechanism. The channel view branch is developed to capture the key channel semantic features through the interactive correlation between the subchannel feature sequences across frames. Our studies reveal that the channel interaction is crucial to explore these discriminative features among fine-grained action recognition categories. Furthermore, the channel view branch can work collaboratively with temporal view branch to take full advantage of channel interaction and channel–temporal dependencies through the joint learning via weight-sharing strategy. The proposed BERT-based joint channel–temporal module works in a plug-and-play way and can be integrated with 2-D backbones, such as temporal shift module (TSM), multiview fusion network (MVFNet), MotionSqueeze network (MSNet), and temporal difference network (TDN). Extensive experiments are carried out on the HMDB51, the MiniKinetics, the fine-grained Something-Something V1 & V2, and the multimodal N-UCLA datasets, and the results demonstrate the effectiveness of our joint channel–temporal module. Our method achieves 83.8%, 83.6%, 57.1%, and 68.2% top-1 accuracy on these single-modal datasets, respectively. The multimodal experiments on the N-UCLA dataset achieve 98.7% and 98.9% accuracy in RGB + skeleton and RGB + depth fusions.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
大雄发布了新的文献求助10
1秒前
Gang完成签到,获得积分10
7秒前
赵一丁完成签到,获得积分10
7秒前
大模型应助华无剑采纳,获得10
8秒前
和谐的醉山完成签到,获得积分10
9秒前
11秒前
13秒前
13秒前
饱满的棒棒糖完成签到 ,获得积分10
13秒前
潮汐发布了新的文献求助10
18秒前
共享精神应助Mason采纳,获得10
23秒前
村口的帅老头完成签到 ,获得积分10
23秒前
小杨完成签到,获得积分20
24秒前
邓紫棋完成签到,获得积分10
25秒前
木木完成签到,获得积分10
25秒前
拾石子完成签到 ,获得积分10
26秒前
郝富完成签到,获得积分10
30秒前
然4519完成签到 ,获得积分10
33秒前
dong完成签到 ,获得积分10
36秒前
木之尹完成签到 ,获得积分10
42秒前
43秒前
潮汐完成签到,获得积分10
44秒前
golden给golden的求助进行了留言
50秒前
Versa完成签到,获得积分10
50秒前
美合完成签到 ,获得积分10
51秒前
ty完成签到,获得积分10
52秒前
科研小白完成签到 ,获得积分10
54秒前
zyb完成签到 ,获得积分10
54秒前
副本完成签到 ,获得积分10
58秒前
香锅不要辣完成签到 ,获得积分10
1分钟前
淡淡乐巧完成签到 ,获得积分10
1分钟前
cc完成签到 ,获得积分10
1分钟前
1分钟前
科研通AI2S应助Cai采纳,获得10
1分钟前
Lenard Guma完成签到 ,获得积分10
1分钟前
直率翠绿完成签到,获得积分10
1分钟前
hgl发布了新的文献求助10
1分钟前
高高应助科研通管家采纳,获得10
1分钟前
Singularity应助科研通管家采纳,获得10
1分钟前
科研通AI2S应助科研通管家采纳,获得10
1分钟前
高分求助中
Production Logging: Theoretical and Interpretive Elements 2700
Neuromuscular and Electrodiagnostic Medicine Board Review 1000
こんなに痛いのにどうして「なんでもない」と医者にいわれてしまうのでしょうか 510
いちばんやさしい生化学 500
Genre and Graduate-Level Research Writing 500
The First Nuclear Era: The Life and Times of a Technological Fixer 500
岡本唐貴自伝的回想画集 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3674584
求助须知:如何正确求助?哪些是违规求助? 3229838
关于积分的说明 9787170
捐赠科研通 2940432
什么是DOI,文献DOI怎么找? 1611942
邀请新用户注册赠送积分活动 761063
科研通“疑难数据库(出版商)”最低求助积分说明 736488