Hybrid cross-modal interaction learning for multimodal sentiment analysis

计算机科学 情态动词 情绪分析 模式 水准点(测量) 人工智能 特征(语言学) 自然语言处理 机器学习 光学(聚焦) 语音识别 语言学 社会科学 化学 哲学 物理 大地测量学 社会学 高分子化学 光学 地理
作者
Yanping Fu,Zhiyuan Zhang,Ruidi Yang,Cuiyou Yao
出处
期刊:Neurocomputing [Elsevier BV]
卷期号:571: 127201-127201 被引量:24
标识
DOI:10.1016/j.neucom.2023.127201
摘要

Multimodal sentiment analysis (MSA) predicts the sentiment polarity of an unlabeled utterance that carries multiple modalities, such as text, vision and audio, by analyzing labeled utterances. Existing fusion methods mainly focus on establishing the relationship of characteristics among different modalities to enhance their emotion recognition abilities. However, they always ignore the all-round interaction between different modalities, especially the cross-modal interaction, which is critical to the sentiment decision of multimodal data. To address these issues, we propose a novel hybrid cross-modal interaction learning (HCIL) framework for hybrid learning of intra-modal, inter-modal, interactive-modal and cross-modal interactions, with which the model can fully utilize the sentiment information of multimodalities and enhance the sentiment assistance between modalities. Specifically, we propose two core substructures to learn discriminative multimodal features. One is the comparative learning interaction structure that can track the class dynamics in the intra-modal, reduce the modal gap in the inter-modal and establish emotional communication in the interactive-modal; the other is the cross-modal prediction structure, which can build the sentiment relationship between cross-modal pairs, especially exploring the auxiliary sentiment effect of audio on the vision and text. Furthermore, we adopt a hierarchical feature fusion structure to generate the multimodal feature for the final sentiment prediction. Extensive experiments on three benchmark datasets showed that our HCIL approach can obtain significant performance on the MSA task and that the design of a cross-modal interaction structure can directly promote the improvement of sentiment classification performance.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
ding完成签到,获得积分10
1秒前
文献求助完成签到,获得积分10
2秒前
kavins凯旋发布了新的文献求助10
2秒前
feisun发布了新的文献求助10
2秒前
2秒前
zzdoc发布了新的文献求助10
3秒前
落微完成签到,获得积分10
3秒前
现代的含雁完成签到 ,获得积分10
3秒前
4秒前
单薄纸飞机完成签到,获得积分20
5秒前
孙文霞发布了新的文献求助10
5秒前
Singularity应助pk采纳,获得20
5秒前
6秒前
remember发布了新的文献求助10
6秒前
kavins凯旋完成签到,获得积分10
6秒前
8秒前
神火发布了新的文献求助10
8秒前
ghost完成签到,获得积分0
8秒前
9秒前
9秒前
充电宝应助夏天不回来采纳,获得10
9秒前
此木完成签到,获得积分10
9秒前
10秒前
wwwwppp发布了新的文献求助10
10秒前
wangjiale完成签到,获得积分10
10秒前
明月念斯人完成签到 ,获得积分10
11秒前
11秒前
anlan8888完成签到,获得积分10
11秒前
yy发布了新的文献求助10
11秒前
斯文冷梅完成签到,获得积分20
12秒前
Lucas应助liu采纳,获得10
12秒前
12秒前
12秒前
hbpu230701发布了新的文献求助10
13秒前
pk完成签到,获得积分10
14秒前
心想事成发布了新的文献求助10
14秒前
张羽发布了新的文献求助30
14秒前
15秒前
余慵慵完成签到 ,获得积分10
15秒前
taco完成签到,获得积分20
15秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Lewis’s Child and Adolescent Psychiatry: A Comprehensive Textbook Sixth Edition 2000
Continuing Syntax 1000
Encyclopedia of Quaternary Science Reference Work • Third edition • 2025 800
Signals, Systems, and Signal Processing 510
Pharma R&D Annual Review 2026 500
荧光膀胱镜诊治膀胱癌 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6220355
求助须知:如何正确求助?哪些是违规求助? 8045396
关于积分的说明 16770687
捐赠科研通 5305911
什么是DOI,文献DOI怎么找? 2826629
邀请新用户注册赠送积分活动 1804761
关于科研通互助平台的介绍 1664509