Representation modeling learning with multi-domain decoupling for unsupervised skeleton-based action recognition

解耦(概率) 计算机科学 人工智能 代表(政治) 特征学习 骨架(计算机编程) 模式识别(心理学) 动作识别 领域(数学分析) 机器学习 数学 班级(哲学) 数学分析 控制工程 政治 法学 政治学 工程类 程序设计语言
作者
Zhihai He,Jinglei Lv,Shixiong Fang
出处
期刊:Neurocomputing [Elsevier]
卷期号:582: 127495-127495
标识
DOI:10.1016/j.neucom.2024.127495
摘要

Skeleton-based action recognition is one of the basic researches in computer vision. In recent years, the unsupervised contrastive learning paradigm has achieved great success in skeleton-based action recognition. However, previous work often treated input skeleton sequences as a whole when performing comparisons, lacking fine-grained representation contrast learning. Therefore, we propose a contrastive learning method for Representation Modeling with Multi-domain Decoupling (RMMD), which extracts the most significant representations from input skeleton sequences in the temporal domain, spatial domain and frequency domain, respectively. Specifically, in the temporal and spatial domains, we propose a multi-level spatiotemporal mining reconstruction module (STMR) that iteratively reconstructs the original input skeleton sequences to highlight spatiotemporal representations under different actions. At the same time, we introduce position encoding and a global adaptive attention matrix, balancing both global and local information, and effectively modeling the spatiotemporal dependencies between joints. In the frequency domain, we use the discrete cosine transform (DCT) to achieve temporal-frequency conversion, discard part of the interference information, and use the frequency self-attention (FSA) and multi-level aggregation perceptron (MLAP) to deeply explore the frequency domain representation. The fusion of the temporal domain, spatial domain and frequency domain representations makes our model more discriminative in representing different actions. Besides, we verify the effectiveness of the model on the NTU RGB+D and PKU-MMD datasets. Extensive experiments show that our method outperforms existing unsupervised methods and achieves significant performance improvements in downstream tasks such as action recognition and action retrieval.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
Gaye完成签到,获得积分10
2秒前
liuliuliu完成签到 ,获得积分20
3秒前
6秒前
英姑应助moon采纳,获得20
8秒前
充电宝应助袁大头采纳,获得10
16秒前
16秒前
21秒前
925完成签到,获得积分10
21秒前
橘仔乐发布了新的文献求助10
23秒前
只爱吃肠粉完成签到,获得积分10
23秒前
moon发布了新的文献求助20
23秒前
sugar完成签到,获得积分10
26秒前
细心慕凝完成签到 ,获得积分10
27秒前
站起来蹬是不对的完成签到,获得积分10
32秒前
背完单词好睡觉完成签到 ,获得积分10
33秒前
毛毛发布了新的文献求助10
34秒前
ZZ完成签到 ,获得积分10
35秒前
35秒前
优秀尔芙发布了新的文献求助10
36秒前
37秒前
上官若男应助袁大头采纳,获得10
38秒前
顾北发布了新的文献求助10
40秒前
激情的丹寒应助damai采纳,获得10
42秒前
43秒前
925完成签到,获得积分10
43秒前
cossen发布了新的文献求助10
46秒前
顾北完成签到,获得积分10
48秒前
深情安青应助一杯美事采纳,获得10
49秒前
Owen应助袁大头采纳,获得10
49秒前
49秒前
52秒前
ding应助南吕采纳,获得10
52秒前
moon完成签到 ,获得积分10
54秒前
Dore完成签到,获得积分20
57秒前
57秒前
58秒前
YY发布了新的文献求助10
58秒前
59秒前
59秒前
chant完成签到 ,获得积分10
59秒前
高分求助中
The Oxford Handbook of Social Cognition (Second Edition, 2024) 1050
Kinetics of the Esterification Between 2-[(4-hydroxybutoxy)carbonyl] Benzoic Acid with 1,4-Butanediol: Tetrabutyl Orthotitanate as Catalyst 1000
The Young builders of New china : the visit of the delegation of the WFDY to the Chinese People's Republic 1000
юрские динозавры восточного забайкалья 800
English Wealden Fossils 700
Handbook of Qualitative Cross-Cultural Research Methods 600
Chen Hansheng: China’s Last Romantic Revolutionary 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3140334
求助须知:如何正确求助?哪些是违规求助? 2791068
关于积分的说明 7797887
捐赠科研通 2447569
什么是DOI,文献DOI怎么找? 1301942
科研通“疑难数据库(出版商)”最低求助积分说明 626345
版权声明 601194