Representation modeling learning with multi-domain decoupling for unsupervised skeleton-based action recognition

解耦(概率) 计算机科学 人工智能 代表(政治) 特征学习 骨架(计算机编程) 模式识别(心理学) 动作识别 领域(数学分析) 机器学习 数学 班级(哲学) 数学分析 控制工程 政治 法学 政治学 工程类 程序设计语言
作者
Zhihai He,Jinglei Lv,Shixiong Fang
出处
期刊:Neurocomputing [Elsevier]
卷期号:582: 127495-127495
标识
DOI:10.1016/j.neucom.2024.127495
摘要

Skeleton-based action recognition is one of the basic researches in computer vision. In recent years, the unsupervised contrastive learning paradigm has achieved great success in skeleton-based action recognition. However, previous work often treated input skeleton sequences as a whole when performing comparisons, lacking fine-grained representation contrast learning. Therefore, we propose a contrastive learning method for Representation Modeling with Multi-domain Decoupling (RMMD), which extracts the most significant representations from input skeleton sequences in the temporal domain, spatial domain and frequency domain, respectively. Specifically, in the temporal and spatial domains, we propose a multi-level spatiotemporal mining reconstruction module (STMR) that iteratively reconstructs the original input skeleton sequences to highlight spatiotemporal representations under different actions. At the same time, we introduce position encoding and a global adaptive attention matrix, balancing both global and local information, and effectively modeling the spatiotemporal dependencies between joints. In the frequency domain, we use the discrete cosine transform (DCT) to achieve temporal-frequency conversion, discard part of the interference information, and use the frequency self-attention (FSA) and multi-level aggregation perceptron (MLAP) to deeply explore the frequency domain representation. The fusion of the temporal domain, spatial domain and frequency domain representations makes our model more discriminative in representing different actions. Besides, we verify the effectiveness of the model on the NTU RGB+D and PKU-MMD datasets. Extensive experiments show that our method outperforms existing unsupervised methods and achieves significant performance improvements in downstream tasks such as action recognition and action retrieval.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
刚刚
_呱_应助楼台杏花琴弦采纳,获得50
1秒前
咸鱼一号发布了新的文献求助10
1秒前
正经俠发布了新的文献求助10
1秒前
李志远完成签到,获得积分10
2秒前
ghh发布了新的文献求助10
2秒前
3秒前
77paocai完成签到,获得积分10
4秒前
CCL完成签到,获得积分10
5秒前
明亮的绫完成签到 ,获得积分10
5秒前
祖诗云完成签到,获得积分0
6秒前
jiewen发布了新的文献求助10
8秒前
8秒前
Oz完成签到,获得积分10
8秒前
zhukun发布了新的文献求助10
9秒前
9秒前
12秒前
香蕉觅云应助oliver501采纳,获得10
12秒前
正经俠完成签到 ,获得积分20
13秒前
YY完成签到 ,获得积分10
14秒前
清秀灵薇发布了新的文献求助10
14秒前
LZL完成签到 ,获得积分10
14秒前
油焖青椒完成签到,获得积分10
14秒前
不会学术的羊完成签到,获得积分10
15秒前
15秒前
lio完成签到,获得积分20
16秒前
16秒前
FashionBoy应助汤浩宏采纳,获得10
17秒前
wjwless完成签到,获得积分10
18秒前
稀罕你发布了新的文献求助10
18秒前
圣晟胜发布了新的文献求助10
18秒前
寒冷半雪完成签到,获得积分10
22秒前
善良易文发布了新的文献求助10
22秒前
orixero应助GXY采纳,获得30
22秒前
香蕉不言发布了新的文献求助10
22秒前
迅速海云发布了新的文献求助10
23秒前
xiamovivi完成签到,获得积分10
24秒前
bitahu完成签到,获得积分20
24秒前
路边一颗小草完成签到,获得积分10
24秒前
25秒前
高分求助中
Continuum Thermodynamics and Material Modelling 3000
Production Logging: Theoretical and Interpretive Elements 2700
Ensartinib (Ensacove) for Non-Small Cell Lung Cancer 1000
Unseen Mendieta: The Unpublished Works of Ana Mendieta 1000
Bacterial collagenases and their clinical applications 800
El viaje de una vida: Memorias de María Lecea 800
Luis Lacasa - Sobre esto y aquello 700
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 基因 遗传学 物理化学 催化作用 量子力学 光电子学 冶金
热门帖子
关注 科研通微信公众号,转发送积分 3527998
求助须知:如何正确求助?哪些是违规求助? 3108225
关于积分的说明 9288086
捐赠科研通 2805889
什么是DOI,文献DOI怎么找? 1540195
邀请新用户注册赠送积分活动 716950
科研通“疑难数据库(出版商)”最低求助积分说明 709849