Cross-modal incongruity aligning and collaborating for multi-modal sarcasm detection

讽刺 计算机科学 保险丝(电气) 模态(人机交互) 人工智能 模式 情态动词 自编码 过程(计算) 自然语言处理 图像融合 机器学习 图像(数学) 深度学习 语言学 工程类 社会科学 讽刺 程序设计语言 高分子化学 化学 社会学 哲学 电气工程 操作系统
作者
Jie Wang,Yan Yang,Yongquan Jiang,Minbo Ma,Zhuyang Xie,Tianrui Li
出处
期刊:Information Fusion [Elsevier]
卷期号:103: 102132-102132 被引量:21
标识
DOI:10.1016/j.inffus.2023.102132
摘要

Sarcasm embodies a linguistic phenomenon that highlights a significant incongruity between the literal meanings of words and intended attitudes. With the proliferation of image–text content on social media, the task of multi-modal sarcasm detection (MSD) has gained considerable attention recently. Tremendous progress have been made in developing better MSD models, primarily relying on a straightforward extract-then-fuse paradigm. However, such a setting encounters two potential challenges. First, the utilization of separately pre-trained unimodal models for extracting visual and textual features frequently lacks the fundamental alignment capabilities required for effective multimodal data integration. Second, the detrimental modality gaps between vision and language make it challenging to comprehensively integrate multi-modal information solely via diverse cross-modal fusion techniques. Consequently, this poses a prominent challenge in further capturing cross-modal incongruity and improving the effectiveness of MSD. In this paper, we propose a Multi-modal Mutual Learning (MuMu) network to tackle these issues. Specifically, we initialize the MuMu network with image and text encoders from the large-scale Contrastive Language-Image Pretraining model to enhance the underlying image–text correspondence. Moreover, to improve the capability of capturing cross-modal inconsistency during the fusion process, we design an align-fuse-collaborate mechanism to align disparate modalities before fusion and enhance the collaborative modeling ability between the two modalities with mutual learning after fusion. The proposed MuMu achieves new state-of-the-art results on a public dataset, demonstrating a substantial improvement of approximately 3% to 9% in terms of accuracy, micro-F1, and macro-F1 scores.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
断章发布了新的文献求助10
刚刚
myf完成签到,获得积分10
1秒前
NCNST-shi发布了新的文献求助10
1秒前
文鸯3完成签到,获得积分10
3秒前
晓然发布了新的文献求助10
4秒前
qpzn完成签到,获得积分10
4秒前
5秒前
5秒前
6秒前
科研通AI2S应助文艺的问寒采纳,获得10
6秒前
李爱国应助忧心的花瓣采纳,获得10
9秒前
轻松的百川完成签到,获得积分10
9秒前
CooLIT发布了新的文献求助10
10秒前
10秒前
Light发布了新的文献求助10
10秒前
Y哦莫哦莫发布了新的文献求助10
11秒前
chongziccc完成签到 ,获得积分10
12秒前
12秒前
14秒前
李健应助li采纳,获得10
14秒前
春和景明发布了新的文献求助10
15秒前
15秒前
236发布了新的文献求助10
15秒前
平淡爆米花完成签到,获得积分10
15秒前
董如意发布了新的文献求助10
16秒前
顾矜应助Light采纳,获得10
17秒前
nn完成签到,获得积分10
17秒前
huihui完成签到,获得积分10
17秒前
南瓜豆腐完成签到 ,获得积分10
17秒前
18秒前
爆米花应助晨曦采纳,获得10
18秒前
18秒前
19秒前
风清扬发布了新的文献求助200
19秒前
19秒前
xiaoli发布了新的文献求助10
20秒前
绿地土狗完成签到,获得积分10
20秒前
changping应助2589采纳,获得20
21秒前
21秒前
21秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
On the Angular Distribution in Nuclear Reactions and Coincidence Measurements 1000
Vertébrés continentaux du Crétacé supérieur de Provence (Sud-Est de la France) 600
A complete Carnosaur Skeleton From Zigong, Sichuan- Yangchuanosaurus Hepingensis 四川自贡一完整肉食龙化石-和平永川龙 600
FUNDAMENTAL STUDY OF ADAPTIVE CONTROL SYSTEMS 500
微纳米加工技术及其应用 500
Nanoelectronics and Information Technology: Advanced Electronic Materials and Novel Devices 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 遗传学 催化作用 冶金 量子力学 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 5308864
求助须知:如何正确求助?哪些是违规求助? 4453810
关于积分的说明 13858222
捐赠科研通 4341572
什么是DOI,文献DOI怎么找? 2384004
邀请新用户注册赠送积分活动 1378588
关于科研通互助平台的介绍 1346583