已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

Modality-invariant temporal representation learning for multimodal sentiment classification

计算机科学 人工智能 模式 模态(人机交互) 分类 时间戳 不变(物理) 机器学习 模式识别(心理学) 数学 社会科学 数学物理 计算机安全 社会学
作者
Hao Sun,Jiaqing Liu,Yen‐Wei Chen,Lanfen Lin
出处
期刊:Information Fusion [Elsevier]
卷期号:91: 504-514 被引量:25
标识
DOI:10.1016/j.inffus.2022.10.031
摘要

Multimodal sentiment classification is a notable research field that aims to refine sentimental information and classify the sentiment tendency from sequential multimodal data. Most existing sentimental recognition algorithms explore multimodal fusion schemes that achieve good performance. However, there are two key challenges to overcome. First, it is essential to effectively extract inter- and intra-modality features prior to fusion, while simultaneously reducing ambiguity. The second challenge is how to learn modality-invariant representations that capture the underlying similarities. In this paper, we present a modality-invariant temporal learning technique and a new gated inter-modality attention mechanism to overcome these issues. For the first challenge, our proposed gated inter-modality attention mechanism performs modality interactions and filters inconsistencies from multiple modalities in an adaptive manner. We also use parallel structures to learn more comprehensive sentimental information in pairs (i.e., acoustic and visual). In addition, to address the second problem, we treat each modality as a multivariate Gaussian distribution (considering each timestamp as a single Gaussian distribution) and use the KL divergence to capture the implicit temporal distribution-level similarities. These strategies are helpful in reducing domain shifts between different modalities and extracting effective sequential modality-invariant representations. We have conducted experiments on several public datasets (i.e., YouTube and MOUD) and the results show that our proposed method outperforms the state-of-the-art multimodal sentiment categorization methods.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
爱学习的YY完成签到 ,获得积分10
2秒前
咿呀咿呀哟完成签到,获得积分10
3秒前
医研完成签到 ,获得积分10
3秒前
陶醉的蜜蜂完成签到,获得积分10
5秒前
GPTea应助科研通管家采纳,获得20
8秒前
8秒前
SciGPT应助科研通管家采纳,获得10
8秒前
刘可完成签到 ,获得积分10
8秒前
8秒前
8秒前
靖柔完成签到 ,获得积分10
8秒前
8秒前
8秒前
10秒前
crazy完成签到,获得积分10
14秒前
大帅比完成签到 ,获得积分10
16秒前
m李完成签到 ,获得积分10
20秒前
zbx完成签到 ,获得积分10
21秒前
22秒前
23秒前
Dae发布了新的文献求助10
27秒前
koi完成签到 ,获得积分10
27秒前
28秒前
29秒前
29秒前
顾矜应助YuLu采纳,获得10
30秒前
31秒前
充电宝应助六六安安采纳,获得10
33秒前
研友_LaNOdn发布了新的文献求助30
33秒前
三世完成签到 ,获得积分10
34秒前
35秒前
wangxw完成签到,获得积分10
35秒前
光翟发布了新的文献求助10
36秒前
37秒前
JunpengGuo完成签到,获得积分10
40秒前
Owen应助原子采纳,获得10
42秒前
研友_LaNOdn完成签到,获得积分20
43秒前
43秒前
希望天下0贩的0应助liian7采纳,获得10
45秒前
46秒前
高分求助中
Aerospace Standards Index - 2025 10000
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Video: Lagrangian coherent structures in the flow field of a fluidic oscillator 2000
Clinical Microbiology Procedures Handbook, Multi-Volume, 5th Edition 1000
Teaching Language in Context (Third Edition) 1000
List of 1,091 Public Pension Profiles by Region 961
流动的新传统主义与新生代农民工的劳动力再生产模式变迁 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 遗传学 催化作用 冶金 量子力学 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 5449585
求助须知:如何正确求助?哪些是违规求助? 4557665
关于积分的说明 14264735
捐赠科研通 4480771
什么是DOI,文献DOI怎么找? 2454561
邀请新用户注册赠送积分活动 1445350
关于科研通互助平台的介绍 1421075