Modality-invariant temporal representation learning for multimodal sentiment classification

计算机科学 人工智能 模式 模态(人机交互) 分类 时间戳 不变(物理) 机器学习 模式识别(心理学) 数学 社会科学 数学物理 计算机安全 社会学
作者
Hao Sun,Jiaqing Liu,Yen‐Wei Chen,Lanfen Lin
出处
期刊:Information Fusion [Elsevier]
卷期号:91: 504-514 被引量:25
标识
DOI:10.1016/j.inffus.2022.10.031
摘要

Multimodal sentiment classification is a notable research field that aims to refine sentimental information and classify the sentiment tendency from sequential multimodal data. Most existing sentimental recognition algorithms explore multimodal fusion schemes that achieve good performance. However, there are two key challenges to overcome. First, it is essential to effectively extract inter- and intra-modality features prior to fusion, while simultaneously reducing ambiguity. The second challenge is how to learn modality-invariant representations that capture the underlying similarities. In this paper, we present a modality-invariant temporal learning technique and a new gated inter-modality attention mechanism to overcome these issues. For the first challenge, our proposed gated inter-modality attention mechanism performs modality interactions and filters inconsistencies from multiple modalities in an adaptive manner. We also use parallel structures to learn more comprehensive sentimental information in pairs (i.e., acoustic and visual). In addition, to address the second problem, we treat each modality as a multivariate Gaussian distribution (considering each timestamp as a single Gaussian distribution) and use the KL divergence to capture the implicit temporal distribution-level similarities. These strategies are helpful in reducing domain shifts between different modalities and extracting effective sequential modality-invariant representations. We have conducted experiments on several public datasets (i.e., YouTube and MOUD) and the results show that our proposed method outperforms the state-of-the-art multimodal sentiment categorization methods.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
1秒前
雪无痕3074完成签到,获得积分10
2秒前
xiuxue424完成签到,获得积分10
3秒前
HYH发布了新的文献求助10
4秒前
Eric完成签到,获得积分10
5秒前
研友_VZG7GZ应助yekindar采纳,获得10
5秒前
orixero应助yekindar采纳,获得10
5秒前
顾矜应助yekindar采纳,获得10
5秒前
李健的小迷弟应助yekindar采纳,获得10
5秒前
安详的惜梦完成签到,获得积分20
5秒前
李健应助yekindar采纳,获得10
5秒前
天天快乐应助yekindar采纳,获得10
5秒前
Jasper应助yekindar采纳,获得10
6秒前
英姑应助yekindar采纳,获得10
6秒前
科研通AI2S应助yekindar采纳,获得10
6秒前
6秒前
Palamenda完成签到,获得积分10
7秒前
俊秀的思山完成签到,获得积分10
7秒前
abcd_1067完成签到,获得积分10
7秒前
孤独问雁发布了新的文献求助10
7秒前
ee完成签到,获得积分10
7秒前
碧蓝的幻悲完成签到 ,获得积分10
8秒前
量子星尘发布了新的文献求助10
9秒前
袁袁完成签到,获得积分10
9秒前
子铭完成签到,获得积分20
10秒前
blueblue完成签到,获得积分10
12秒前
lab发布了新的文献求助10
13秒前
14秒前
NexusExplorer应助孤独问雁采纳,获得10
14秒前
15秒前
Ly完成签到 ,获得积分10
16秒前
xyc完成签到,获得积分10
18秒前
研友_Ljb0qL完成签到,获得积分10
19秒前
vivi发布了新的文献求助10
19秒前
飘逸锦程完成签到 ,获得积分10
19秒前
阿里山完成签到,获得积分10
19秒前
QAQSS完成签到 ,获得积分10
21秒前
zys完成签到 ,获得积分10
21秒前
呆萌幻竹完成签到 ,获得积分10
22秒前
Yy完成签到 ,获得积分10
23秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Clinical Microbiology Procedures Handbook, Multi-Volume, 5th Edition 1000
扫描探针电化学 1000
Teaching Language in Context (Third Edition) 1000
Identifying dimensions of interest to support learning in disengaged students: the MINE project 1000
Introduction to Early Childhood Education 1000
List of 1,091 Public Pension Profiles by Region 941
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 遗传学 催化作用 冶金 量子力学 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 5438892
求助须知:如何正确求助?哪些是违规求助? 4550029
关于积分的说明 14221426
捐赠科研通 4470990
什么是DOI,文献DOI怎么找? 2450094
邀请新用户注册赠送积分活动 1441065
关于科研通互助平台的介绍 1417632