Representation modeling learning with multi-domain decoupling for unsupervised skeleton-based action recognition

解耦(概率) 计算机科学 人工智能 代表(政治) 特征学习 骨架(计算机编程) 模式识别(心理学) 动作识别 领域(数学分析) 机器学习 数学 班级(哲学) 数学分析 控制工程 政治 法学 政治学 工程类 程序设计语言
作者
Zhihai He,Jinglei Lv,Shixiong Fang
出处
期刊:Neurocomputing [Elsevier]
卷期号:582: 127495-127495
标识
DOI:10.1016/j.neucom.2024.127495
摘要

Skeleton-based action recognition is one of the basic researches in computer vision. In recent years, the unsupervised contrastive learning paradigm has achieved great success in skeleton-based action recognition. However, previous work often treated input skeleton sequences as a whole when performing comparisons, lacking fine-grained representation contrast learning. Therefore, we propose a contrastive learning method for Representation Modeling with Multi-domain Decoupling (RMMD), which extracts the most significant representations from input skeleton sequences in the temporal domain, spatial domain and frequency domain, respectively. Specifically, in the temporal and spatial domains, we propose a multi-level spatiotemporal mining reconstruction module (STMR) that iteratively reconstructs the original input skeleton sequences to highlight spatiotemporal representations under different actions. At the same time, we introduce position encoding and a global adaptive attention matrix, balancing both global and local information, and effectively modeling the spatiotemporal dependencies between joints. In the frequency domain, we use the discrete cosine transform (DCT) to achieve temporal-frequency conversion, discard part of the interference information, and use the frequency self-attention (FSA) and multi-level aggregation perceptron (MLAP) to deeply explore the frequency domain representation. The fusion of the temporal domain, spatial domain and frequency domain representations makes our model more discriminative in representing different actions. Besides, we verify the effectiveness of the model on the NTU RGB+D and PKU-MMD datasets. Extensive experiments show that our method outperforms existing unsupervised methods and achieves significant performance improvements in downstream tasks such as action recognition and action retrieval.

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
建议保存本图,每天支付宝扫一扫(相册选取)领红包
实时播报
熠熠生辉发布了新的文献求助10
刚刚
LQ发布了新的文献求助10
刚刚
1秒前
wjcsqj完成签到,获得积分20
1秒前
miaomiao完成签到,获得积分10
2秒前
lcc完成签到,获得积分10
2秒前
3秒前
5秒前
科目三应助帅气一刀采纳,获得10
5秒前
wang11完成签到,获得积分10
6秒前
无私小小完成签到,获得积分10
7秒前
yutian完成签到,获得积分10
8秒前
9秒前
小鬼丶发布了新的文献求助10
9秒前
10秒前
10秒前
11秒前
11秒前
12秒前
首席或雪月完成签到,获得积分10
12秒前
皮凡发布了新的文献求助10
13秒前
13秒前
着急的棉花糖完成签到,获得积分20
15秒前
15秒前
旺仔小馒头完成签到 ,获得积分10
15秒前
风清扬发布了新的文献求助10
15秒前
LULU吖完成签到 ,获得积分10
16秒前
彭于晏应助李晓凤采纳,获得10
17秒前
帅气一刀发布了新的文献求助10
17秒前
威猛先生完成签到,获得积分10
18秒前
小此君发布了新的文献求助10
18秒前
番茄鱼完成签到 ,获得积分10
18秒前
小米发布了新的文献求助10
19秒前
RuiLi完成签到,获得积分10
19秒前
朵朵完成签到,获得积分10
20秒前
凝眸处应助忐忑的如冰采纳,获得10
20秒前
张鑫发布了新的文献求助10
20秒前
20秒前
22秒前
玛卡巴卡发布了新的文献求助10
22秒前
高分求助中
Learning and Memory: A Comprehensive Reference 2000
Predation in the Hymenoptera: An Evolutionary Perspective 1800
List of 1,091 Public Pension Profiles by Region 1541
The Jasper Project 800
Holistic Discourse Analysis 600
Beyond the sentence: discourse and sentential form / edited by Jessica R. Wirth 600
Binary Alloy Phase Diagrams, 2nd Edition 600
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 遗传学 催化作用 冶金 量子力学 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 5501188
求助须知:如何正确求助?哪些是违规求助? 4597536
关于积分的说明 14459486
捐赠科研通 4530972
什么是DOI,文献DOI怎么找? 2483024
邀请新用户注册赠送积分活动 1466722
关于科研通互助平台的介绍 1439335